阅读视图
清明假期预计跨区域流动8.4亿人次
美股大型科技股盘前多数上涨,特斯拉涨1%
现货黄金突破4680美元/盎司
美元指数失守100关口
韩国计划将可再生能源发电占比提升至20%
司美格鲁肽口服减重药已开出超60万张处方,市场空间还有多大
媒体:全球最大的电池制造商宁德时代将雄心拓展至远洋 计划今年将其海洋事业部规模扩大一倍
苹果首款折叠屏手机已在试产
日经225指数收涨0.55%
业内人士认为碳酸锂价格出现短期回调
OpenAI状态页显示:ChatGPT 网页版当前出现故障
日本40年期国债收益率上升9.5个基点,至3.965%
商务部电子商务司负责人解读《关于更好服务实体经济 推进电子商务高质量发展的指导意见》
红果短剧:针对近期AI短剧素材违规使用问题频发的情况,已处置作品670部
清明假期迎返程高峰 三天假期跨区域人员流动量预计达8.4亿人次
众筹300万美元的Agent盒子,想彻底解决你的算力焦虑
作者 | 张子怡
编辑 | 袁斯来
AI硬件赛道,似乎一夜之间跨入新世界。
上一个月,投资人还在打听硬件大厂高P创始人,这一个月,他们已经开始寻觅“下一个Mac mini”。
狂欢的起点,来自开源智能体框架OpenClaw(圈子里称为:龙虾)。从抢购大内存的Mac mini到各类软硬大厂的联名主机,FOMO恐惧症席卷着所有人。承载AI的硬件,如今成了不可错失的入口。
此前更多在极客圈子里风行的Agent Box忽然被推到前台。简单说,Agent Box就是⼀台面向个人用户的AI专用设备,其存在的唯⼀目的是在本地运行大模型和自主代理。
市面上已经有数家推出Agent Box的公司,包括Pamir、Violoop、Tiiny等等。Pamir估值超过2500万美元,而Tiiny AI推出的首款产品Tiiny AI Pocket Lab,在Kickstarter上众筹金额已达280万美金。有行业人士预计其最终众筹金额可能会超400万美金。
Tiiny AI Pocket Lab重量约300克,尺寸约一部手机大小,早鸟众筹价为1399美元,支持一键部署大模型(最高支持120B)不依赖云端、服务器或高端GPU,也不产生额外的Token消耗费用。
Tiiny AI无疑踩中风口,毕竟用户只需要花单次硬件的钱,便能无限量地使用“龙虾”。
不过,Tiiny AI副总裁兼商业化负责人Eco Lee在采访中曾反复强调:Tiiny AI Pocket Lab不是专门为Open claw设计,它是为个人设计的AI基础设施设备。
这听起来很迷人,甚至有些难以置信。人们必须展开新的想象,agent原生意味着什么,要实现什么?当制约我们使用AI的只剩下高昂的Token费用,我们又如何冲破这一限制?
Tiiny AI尝试给出一个答案。
01 何谓Agent Box
在理解Tiiny AI之前,需要厘清一个新的产品概念——到底什么是Agent Box(智能体盒子)?
在过去一年里,为了在本地运行开源大模型,人们们尝试过各种方案:有人用淘汰的旧电脑,有人抢购顶配的Mac mini。
这笔硬投入相当高昂。倘若用户想在本地端运行超过120B的大模型,购买PC电脑要凑近80GB的显存,整机成本超过5万元;即便选择苹果的Mac Studio(选配96GB统一内存版),也要花费超过2万元。
“你是否愿意买台电脑,只用来跑大模型?现在很多几万元的AI电脑,一旦启动本地大模型的时候,内存与算力就被过度占用,你甚至连一个网页都打不开。更别提打游戏或者看视频。”Eco说到。
除了设备本身开销之外,随着Token价格水涨船高,高昂的持续使用成本,也让“本地化部署”成为行业刚需。
因此,在Tiiny AI的产品构想里,其产品必须是台专门的AI设备,能够支持本地大模型和智能体7×24小时后台运行。其设计逻辑并非替代用户的个人电脑,而是作为外接独立设备,供手机、PC、平板或机器人等终端设备接入调用。系统默认将用户数据、凭证和工作流保存在本地,敏感操作无需上传云端,除非明确要求调用更强的云端模型。
在软件生态方面,设备将内置Agent Store,目前已适配OpenAI OSS、Qwen、GLM 等50余款开源大模型,以及 OpenClaw、n8n 等超百款智能体开发工具。
为构建丰富的端侧生态,Tiiny AI计划于今年7月推出模型格式转换工具,除了Tiiny官方支持的SOTA开源模型外,用户也可自行从Hugging Face等开源社区下载、转换并导入其他开源模型和用户自己的微调模型,并能上传分享给其他Tiiny用户。
“我经常给用户打个比方,云端的大模型就像瓶装矿泉水,好喝也要喝,但普通用户有大量高频、重复、贴近个人习惯、又不需要顶级智力的AI需求,就像用矿泉水洗手洗澡就太奢侈了。Tiiny的存在就像属于用户的‘AI水龙头’,你可以随意使用、token边际成本为0。”Eco告诉硬氪。
在Eco看来,云端大模型专注处理高智力、高精度、关键性任务,本地大模型则聚焦日常高频、个性化、带用户长期记忆的持续交互场景——这种“端云协同”模式,正是Tiiny AI,也是Agent Box最核心的价值所在。
在期待、掌声与纷至沓来的投资人邀约中,Tiiny AI难免要面对质疑。它必须回答的第一个问题,就是以并不昂贵的售价,如何实现前沿的产品理念,以及120B的参数模型?
02 是玩具还是工具
在海外reddit论坛上,对Tiiny AI Pocket Lab的评价两极分化。有人说这只会是玩具,甚至有人通过宣传照逆向工程了Tiiny AI的产品,认为其所宣称的功能很难真正实现。
他们质疑的点在于,Tiiny AI并未公布其所用的SoC(系统芯片)品牌,也没有使用高端的GPU,却能在本地运行120B的大模型。
这令人觉得不可思议。
“我们是一家AI Infra公司,核心是通过系统性底层优化,把有限硬件的每一分算力与资源,全部聚焦于LLM推理与Agent运行,这与其他做硬件的思路有本质不同。”Eco表示。
Tiiny AI Pocket Lab里使用的芯片是一颗SoC外加一颗dNPU,并通过Tiiny AI最核心的技术PowerInfer来实现媲美Nvidia、AMD等高端GPU芯片的本地模型推理能力。
PowerInfer是用于端侧的异构算力推理加速技术,Tiiny AI团队通过大量的数据测算和语料训练发现,大模型推理过程中,参数激活模式分为两类:“热激活参数”(每次与模型交互都会调用的核心参数,约占20%)和“冷激活参数”(仅在用户问到医学、法律等特定领域问题时激活,约占80%)。这种冷热激活的特性,恰好适合在端侧异构算力架构下优化分配。团队开源过PowerInfer的示例:用单个NVIDIA RTX 4090 GPU,运行参数量175B的大模型,速度能达到传统方案的11倍。
这些都属于AI Infra层面的技术积累。从芯片层到Agent调度层,再到模型训练层,都需要深厚的knowhow支撑。
在具体的落地场景中,Tiinny AI团队从Kickstarter的留言区中发现,其用户主要是使用如OpenClaw一类开源应用的普通用户、对数据隐私有刚需的专业人士和AI极客。即使在断网的离线环境下,该设备依然可以运行多步推理、Agent工作流、内容生成以及针对敏感数据的安全计算。“傻瓜式”的开箱即用、0token费的24/7 Agent和完全的自主控制权是这些人选择Tiiny的核心理由。
并且,该设备在系统内引入了长期记忆功能。用户的交互偏好、历史文件与对话记录,均能通过加密形式直接存储在本地硬件中。
“隐私是Agent Box的加分项,但核心在于本地模型的部署,它能够结合你的长期记忆主动做事情,这件事最重要。”Eco告诉硬氪。
Tiiny AI的产品预计在2026年8月交付。需要注意,Tiiny是AI Agent出身的团队,其最终产品呈现仍然是硬件。他们有合作供应商,但也需要应对量产中的突发情况。
硬件生产有太多需要趟过的河流,考验团队的并非融资,而是真正兑现诱人的承诺:在一个300克的盒子上,实现本地算力自由、不受Token价格束缚、完全私密。