普通视图

发现新文章,点击刷新页面。
昨天以前首页

耳机上为何长出了摄像头?|AI 器物志

作者 杜晨
2025年12月25日 14:42

编者按:

AI 开始寻找自己的形状,有些选择出人意料。

AI 在智能手机上生出了一颗独立按键,似乎让智能手机找回了久违的进化动力。眼镜凭借着视觉和听觉的天然入口,隐隐有了下一代个人终端的影子。一些小而专注的设备,在某些瞬间似乎比 All in one 的设备更为可靠。与此同时,那些寄望一次性替代手机的激进尝试,却遭遇了现实的冷遇。

技术的落地,从来不只是功能的堆叠,更关乎人的习惯、场景的契合,以及对「好用」的重新定义。

爱范儿推出「AI 器物志」栏目,想和你一起观察:AI 如何改变硬件设计,如何重塑人机交互,以及更重要的——AI 将以怎样的形态进入我们的日常生活?


临近年底,此前名不见经传的创业公司光帆科技,发布了一款看起来有些「反直觉」的产品:Lightwear AI 全感智能套装(以下简称 Lightwear)

笼统地讲,这玩意是智能耳机+手表的套装。但具体细节更加有趣:

首先,每只耳机上,各装了一枚有 200 万像素的摄像头,单耳重量 11g,因为要确保视觉功能的续航够用;智能手表是显示终端,也是额外的交互输入工具;但这个套装的智能中枢不一定是手机,而是内置了 eSIM 能力和 GPS 芯片的耳机盒,智能手表都可以直接与之相连接——

这意味着,Lightwear 能够彻底脱离手机,独立存在、工作。

这种独特的设计理念实践,在行业前所未有。裸露的摄像头挂在耳机上,放在耳边,比带摄像头的智能眼镜还要挑战普遍审美,更是撞上了隐私的敏感神经。

但如果我们将视野放到整个科技和消费电子行业在未来 5-10 年即将去往的方向,你会发现 OpenAI、Meta、阿里夸克、 理想、苹果,在类似的产品定义上是有共识的——而光帆科技抢在这些巨头和大公司之前,把这个共识给首先产品化了。

即是:AI 需要真的理解世界,光靠麦克风已经不够了。

而这个共识的另一面是:模型的多模态能力,正在倒逼产品设计去满足模型的需求

也即,无论是光帆这种带摄像头的耳机,还是接受度相对更高但仍然争议不断的智能眼镜——这些产品形态都是模型能力倒逼出来的结果,与审美无关。

一家脱胎于小米的 AI 硬件公司

光帆科技成立于 2024 年 10 月,创始人董红光是小米集团初创团队成员、89 号员工。在小米任职的 14 年间,他先后以核心身份参与 MIUI、快应用、自研手机、汽车 OS 等高级别项目的研发工作。

按照该公司的官方介绍,创始团队属于典型的「高P团队」,除了小米之外还汇集来自华为、字节、阿里、腾讯等企业的资深专家,具有深厚的软硬件、AI 开发能力。

更值得注意的是资本累积的速度。光帆科技在三个月内迅速完成两轮累计 1.3 亿元人民币融资,投后估值超 5 亿元。投资方包括柏睿资本(宁德时代副董事长李平创办)、韶音、同歌创投(歌尔升学旗下)、清辉投资、鼎晖投资、阿尔法公社、英诺天使等知名基金与机构。

这其中的产业资本颇为瞩目,多为音频和高新制造巨头:韶音在骨传导及开放式耳机市场占据 50% 以上份额,歌尔则是可穿戴设备的 ODM 龙头,清辉投资背后是兆易创新这一存储头部企业,宁德时代更无需多提。

这些产业资本的加入,既为这家公司和这个尚未成熟的形态提供试错空间,更是彰显了产业巨头们提前布局的动作。

摄像头的存在,是让 AI 能看见你看见的

过去 20 年的时间里,人机交互的主线其实清晰无比:打字、触屏、拍照、上传,然后等待设备反馈。虽然设备本身所内置的软件与服务在今天能做的非常多,能力很强,但交互的逻辑是没有变的:你控制设备,设备给你反馈。

而最近 3-5 年里基于大语言模型的 AI 新浪潮,彻底改变了这个逻辑。由于模型具备处理多模态信息的能力,能够理解图像、声音、文字之间的关系,且具备了更加接近「人类直觉」的能力。因此,由大模型驱动的 AI 产品,能够更加积极主动地对用户以及用户所处的数字世界——甚至真实世界——发起交互。

从硅谷的 OpenAI、苹果、Meta,到国内的各家大厂,搭载摄像头的 AI 设备已经成为一个共识方向。这背后的原因并不复杂:语音能捕捉到的是「你所描述的世界」,而加上摄像头,AI 才能真正理解「你身处何处」「面前何物」「世界正在发生什么」

第三方设计的 OpenAI 耳机遐想图

第三方设计的 OpenAI 耳机遐想图

问题来了:难道每次 AI 需要理解的时候,我都要掏出手机来吗?摄像头没有更好的安身之处吗?

只剩下两个现实选择:带在头上,或者贴在身体上。

在 2025 的年底,这两者我们早已见过了无数尝试者、失败者、领先者与落后者。

在贴身设备上,Humane AI Pin 和 Rabbit R1 一度被硅谷奉为「the next iPhone」,然而却因为到得太早,且效果太糟而早早收场,但在这个领域仍然不断有人推陈出新,比如近期出口转内销的 Looki。

人们又想起了十多年前曾经流行的 Google Glass 和 VR 头显,将两者合在一起,造出了新一代的智能眼镜。目前,这个品类被硅谷奉为圭臬,且由于能够和日常佩戴的眼镜有机结合,接受度相对更高。但仍然有人觉得,智能眼镜并不理想,不会成为手机的真正替代品。

紧接着,耳机来了。在手机、穿戴设备、智能眼镜中间,耳机卡在了一个微妙的位置:它已经被社会默许可以长期佩戴,同时又天然接近「视」与「听」这两个核心感官的位置。这让它成为了 AI 感知计算能力的合理载体,下一个 AI 硬件的试错空间。

耳机离眼睛和耳朵更近,且消费者心智教育完成,佩戴接受度广泛。更重要的是,相比眼镜的显眼和沉重(最少也要 40 多克),Lightwear 耳机不仅轻(Lightwear 单耳 11g), 虽然加了摄像头让它看起来有些「异物感」,但至少在社交场合的存在感比眼镜更低。

从用户优先,到模型优先的产品逻辑

单纯依靠语音识别的 AI 耳机,市场相对饱和,已经明显进入瓶颈阶段了。根据爱范儿的观察,当前市场上大部分所谓的 AI 耳机,定价都在千元左右或以下,主要围绕 AI 翻译场景展开,功能趋于同质化。

而光帆想的、在 Lightwear 上做的,跟那些普通耳机都非常不一样。普通耳机像是被锁死在「听觉」的范畴内,但光帆多想了一步,它想的是一个更深层的问题:AI 需要更多的上下文,我用耳机能不能获得?

这个问题的答案,其实藏在 AI 时代交互方式的根本转变中。

从电脑到手机,目前为止都是 GUI(图形用户界面)的时代,屏幕、按钮、图标缺一不可,因为我们精准控制每一个操作对象。

但生成式 AI 改变了这个逻辑:交互可以完全依靠自然语言,你给系统的是模糊描述的指令,系统反馈的是并不精确但可用的结果,高频沟通和反馈变得更重要,精准度反而没那么关键——也就是 NUI(自然用户界面)。说和听,反而成了更自然的方式。图形界面变得非必要了。

这样的新交互范式,落在耳机上是很合理的:耳机可以做到 10g 甚至更低,佩戴无负担,续航长,可以全天候在线。相当于人体有了一个智能外挂,一直在线,随时待命。

但这个智能外挂还缺一样东西:和人类一样,接收足够多的信息。而在所有感知维度中,视觉是信息最丰富、最重要的一种。

于是结论很清晰——要给耳机加上一个摄像头。

在发布会现场,光帆展示了 Lightwear 感知能力结合的实际应用。这些场景覆盖了日常生活与工作中的高频需求:

  • O2O 场景:用户唤醒设备,问「帮我看下这家怎么样」,耳机通过摄像头识别面前的餐馆店面招牌,结合 GPS 定位确认位置,结合 AI 产品积累的记忆,进行个性化口味比对、附近更优餐厅推荐,进行主动取号、智能提醒到号等。
  • 差旅:收到出差短信/邮件,Lightwear 可以主动为你安排日程,发现日程冲突并解决冲突、智能回复短信/邮件,搜索并下单机酒,完成最后一公里打车环节
  • 购物:用户看到感兴趣的商品,只需提问,耳机即可直接视觉识别,在线比价,加购甚至直接下单。
  • 日常提醒:根据日程安排,主动唤醒并提醒用户(比如重要纪念日)

整个过程中,用户不需要打开手机,不需要进入 App 操作,甚至不需要明确说出自己想要的什么—— AI 将视觉、地理信息结合,自己就补全了需要的上下文。

这类设备天生适合以下几种场景:你说不清楚的东西(「就这个」「不是,是旁边内个」);不值得专门掏出手机拍一张,或者掏出手机很打断「心流」的场景(走路、逛展、炒菜等等)等等。

200万像素够用吗?够了,因为照片是给模型看的

如果以传统消电产品的眼光去审视 Lightwear,槽点确实很多:摄像头外露,隐私压力大;比一般耳机重,全天候佩戴未必属实;社交压力;很容易联想到 Google Glass、AI Pin 等失败案例,等等……

然而这纯粹是 missing the point. 给耳机加上摄像头,其实服务的是 AI 的理解效率。摄像头,根本不是给人用的。这个设计的出发点是服务模型的。模型需要更连续、更及时的视觉流,更真实的 FPV。

这里有个关键设计值得注意:Lightwear 的摄像头采用了「阅后即焚」的影像处理机制。

在 Lightwear 系统设计中,你无法以「拍照」为目的去命令耳机拍照片。这是因为摄像完全服务 AI,用于即时性的视觉上下文理解。照片文件不会在本地或云端保存,可以理解为「用后即焚」。这个设计背后有几层考虑:

显然,这个设计的首要考虑是保护隐私。不保存影像文件,就能从根本上杜绝隐私泄露,用户无需担心自己的生活细节被拍下,甚至在意外情况中被「偷拍」保存。

以及,不保存照片也能够显著优化成本:既然是给美胸看的,画质就完全不需要达到人眼标准。200 万像素对于物体识别、场景理解早已足够,而且像素越低,处理速度越快、功耗越低,存储和流量成本越小。目前设备做到 9 – 15 小时续航,足以实现全天候伴随。

当然,关于这个产品「模型优先、用户靠后」的论断,只是我的主观认为。其他人包括光帆可能和我都有不一样的看法。在发布会上董红光强调,AI 硬件应该「让技术退后一步,让人站在中心」,但实际产品所呈现出来的,至少在我的逻辑里,恰恰是技术先行。

但这年头,又有哪个 AI 硬件能免除这样的矛盾感呢?

在这里我们可以大胆地抛出一个论断:当下和未来一段时间内所有的 AI 硬件,都应该是以模型优先,以满足模型需求为第一出发点的产品定义。

因为我们远未探到 AI 模型与电子硬件产品结合的的能力边界在哪里。所以毫无疑问,我们未来还会看到更多像 Lightwear 这样,你甚至可以说有点像「缝合怪」一样的东西。

只有做更多的尝试,尽管其中大部分是试错,这些产品公司才能真正摸到边界在哪里,才能带来更加优秀的体验。

说在最后

当然,Lightwear 还是一个正经要发售的产品。这个套装的价格并不便宜,在这里我无意给 Lightwear 过高的评价,免得大家形成错觉。

在发布会现场我们上手的是「工程样机」,包括日程管理、消息提醒转述、差旅预定、叫车、餐厅点评信息和排号、视觉搜索/商品加购物车等高频刚需场景,体验起来均流畅运行。

但由于耳机直连耳机盒 (eSIM 4G 网络)加之现场网络一般,对话的时延还是比较明显,距离《Her》电影里那种理想化的对话节奏还是有距离的。现场工程师透露,工程样机的体验距离明年 Q1 发售的市售版,大约实现了 7-8 成水平。

但实话来说,体验过 Lightwear 后,我觉得它已经足够令我满意。我觉得,OpenAI 和苹果筹划中的,可能会在 26 或 27 年正式发售的「带摄像头的 AI 耳机」产品,体验不会比光帆的方案好出太多——

这和产品力、工程能力无关,纯粹在于这个产品形态目前的想象空间也就这样了。这些功能谁都能做,像光帆这样的,脱胎于小米的中国团队,应该只会做的更好。

如果问我怎么看这种形态的 AI 硬件,我的回答是:高度合理、不够优雅、大概率不是最终形态。

  • 高度合理:因为它准确的解决了多模态 Agent 与硬件结合时的上下文痛点。AI 如果需要理解真实世界,不能没有视觉感知;
  • 不够优雅:产品机身大于 AirPods,会带来一定的社会压力。对于普通用户来说,甚至可能成为购买后吃灰的理由;
  • 不是最终形态:接上一条,目前的 Lightwear 更像是初步和过渡性的产物。我们可以想象成熟产品应有的样子:摄像头进一步缩小到难以察觉,从而让整个产品更像 AirPods——被社会广泛接受的产品形态。这方面我们无需担心,参考智能眼镜和录音卡片的经验,一开始都相当笨重,后面随着市场火热、供应链进步,方案也会日趋成熟。

以及目前 Lightwear 搭载的是一个自研的 AI 操作系统 Lightware OS,它背后能接多类大语言模型/多模态模型、MCP、API,具备 Phone/Browser Use 能力等等——所以,就算未来摄像头耳机这个形态被证明不可行,光帆的 OS 也可以快速迁移到眼镜或其它的载体上。

从 AI AirPods,到 Meta 据传几年前就有立项的 Camerabuds 耳机,再到 OpenAI 招来前苹果设计传奇 Jony Ive 做的神秘新硬件——这些产品的传闻都不谋而合地提及了搭载摄像头的耳机方案。这绝对不是简单的巧合,更像是「英雄所见略同」。

而在这样一个非常早期但已强敌环伺的市场,光帆率先发布了一个高度可用的产品,这本身就是一件值得兴奋的事情。

从技术演进的必经之路来看,在一个划时代的革命性产品书写全新定义之前,各种新东西、「怪东西」此起彼伏是必然的。当 AI 开始主动理解世界时,设备形态一定会变得有些奇怪——任何事物在早期阶段都是这样,别忘了小汽车在最一开始也被当成马戏一样看。

当然,从用户接受的角度,社会规范、隐私边界、审美偏好等等软性因素的转变,往往比技术进步要慢得多。真正的临界点在哪里,现在还不太看得清。

但可以确定的是,我们已经经过了一个朦胧的新起点。未来会有越来越多被 AI 彻底改变设计、重塑人机交互的新形态产品。透过《AI 器物志》这个专题,爱范儿将持续观察它们如何进入、改变我们的生活。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


那个周末,我的吸尘器开始骂我

作者 杜晨
2025年12月22日 09:43

美国明尼苏达州,冬天漫长而寂静,雪包裹了整个世界。对于律师丹尼尔·斯文森 (Daniel Swenson) 来说,家是他唯一的庇护所,是他在法庭上唇枪舌剑一天后,能够卸下盔甲的地方。

然而,去年年底的一个深夜,这个庇护所被一种抽象的力量击穿了。

字面意义上的抽象。

起初,只是客厅的扫地机器人发出了异响,声音像是坏掉的收音机。斯文森一开始没在意,但当他打开控制 App 时,屏幕上的画面让他背后的汗毛瞬间竖立。摄像头正在转动——而且不是正常工作时的那种转动,而像是一双眼睛在窥探的感觉。

有人在窥探斯文森的客厅,他的生活和隐私。他愤怒地重置了密码,然后重启了机器,以为能把不速之客拒之门外。但是这次驱魔似乎并无作用。机器人重新启动了,指示灯再次亮起,这一次,入侵者干脆直接夺取了扬声器的控制权,当着斯文森和他儿子的面,疯狂地骂着「fuck」,吐出你所能想象的所有针对黑人的种族歧视词汇。

他的吸尘器,变成了一个满口秽语的「暴徒」。

斯文森的经历并非个案:在加州洛杉矶的一个家里,扫地机器人像发狂的野兽一样骚扰着宠物狗;在德州,类似的剧情也在演。

听起来像是卡夫卡的荒诞剧——谁也没想到,21 世纪 20 年代的智能家居浪潮现实,比艺术创作还更荒诞。

最近欧洲刑警组织 (Europol) 的重磅报告《无人化的未来》(The Unmanned Future),发出了新的警告。

「数字实体化」是这份报告的主命题:未来的犯罪,可能是「无人」犯罪。未来的执法,也有可能是「无人」执法。在无人化的未来,人类将不得学会与机器共存——甚至学会如何与之抵抗,并在过程中重新定义人机关系。

客厅里的特洛伊木马

《黑客帝国》已经是 20 多年前的作品,但其中所预言的代码侵入真实世界,虚拟与现实的结合的犯罪行为,其实最近已经开始发生。电影中的反乌托邦世界,似乎没那么远了。

最简单的犯罪种类,就是强行黑入智能家居产品,隔着互联网在别人的家里捣乱。

安全研究人员早已发出警告。斯文森用的扫地机器人品牌,其部分型号有严重的蓝牙缺陷,黑客不需要复杂操作即可轻松通过蓝牙接管机器。厂商提供的防护也过于简单:4 位数的 PIN,同样只用穷举法就能轻松破解。

厂商的回应也颇为敷衍:对于部分案例,厂商宣称是用户在其他网站泄露了密码,自己是被连累的,算不上系统的漏洞,直到媒体曝光、事情闹大,才勉强承认产品确实存在安全隐患。

和扫地机器人相比,智能冰箱的背叛更加隐蔽,荒诞程度更是翻倍——有没有想过,你的冰箱不止能装肉鸡,而且自己也是一个「肉鸡」,专门负责发送垃圾邮件?

网络安全公司 Proofpoint 还真就有这样一个真实案例。黑客悄无声息地俘获了超过 10 万台智能家居设备,包括联网的冰箱、智能电视和路由器,将其组成「僵尸网络」(botnet)。

这些冰箱每天分三次发动攻击,每次爆发发送 10 万封邮件,精准而高效。更狡猾的是,为了避开反垃圾邮件系统的拦截,黑客控制每台设备只发送少量邮件,就像蚂蚁搬家一样,让防御者难以察觉。

如今,每个家居设备都有算力、联网、存储能力。而大多数时候此类设备被攻陷,不是因为缺乏安全设定,而是纯粹出于社工学理由,因为保留着出厂默认用户名和密码,或者开放了完全不必要的 telnet 或 ssh 端口——好比装了个防盗门却把钥匙插在门上,还贴着张纸条写着「欢迎光临」。

而像前面提到的,黑入扫地机器人之后如果支持纯捣乱的话,倒还好。问题是,如果设备用被攻击设备作为跳板进一步黑入网络里的其他设备,或者利用更多社工学思路去搞破坏,造成的损失将会是更加难以估量的。

Europol 报告中引用的一些研究指出,大部分时候针对智能家居的黑客攻击,都是静默的,激烈和充满恶意的攻击只占极少数。

为了提高潜在的犯罪收益,黑客们更喜欢安静地潜伏。比如,黑客可以掌控一台设备,继续跳转,进而了解家庭的户型、户内人员的作息习惯,他们的进一步隐私/财务信息。

甚至窥私欲本身也构成了一个巨大的地下市场:你在家里最放松、最私密的时刻,无论是刚回到家的狼狈,还是洗澡时的发呆,都在暗网上待价而沽。

Europol 指出,在今天,你在网上的不小心,会导致现实中的你遭受物理层面的骚扰和监视。当黑客攻击侵入实体空间,虚与实的安全隔离被打破了。我们的家变得更智能了,但家的安全却愈发支离破碎。「家」真的不可入侵吗?不,它可能早已成为一个多孔的漏斗,而每一个智能设备都在提供潜在的漏洞。

猫鼠游戏

夜晚,监狱的操场。一架无人机像一只巨大的黑色甲虫,悬停在操场上方。挂钩松开,一个包裹坠落下来,精准地落在一名正在放风的犯人脚边。

犯人若无其事地弯腰、捡起包裹、塞进怀里,整个过程行云流水,就像在自家门口取个快递,也像是电影里的桥段。

但这并不是电影,而是加拿大安大略州的金斯顿,这座监狱小城前不久刚刚发生的事情。当地执法人员和无人机走私违禁品行为已经对抗了几年的时间,但总感觉道高一尺魔高一丈。无人机的出现让监狱的高墙失去了意义。曾经走私需要买通狱警,但现在只需要一台几百刀的无人机和一个稍微有点手法的飞手。

无人机的出现,让战场轻松、低成本从二维升级到三维空间。谁掌握无人机,谁就掌握了不对称战争的能力。而在全世界各条知名的走私走廊,贩毒集团正在发起海陆空全方位的不对称战争。

在南美,他们使用无人机来为运毒飞机导航,协助它们在土跑道上降落和起飞,躲避雷达的照射。

在地中海,西班牙警方于 2022 年查获了三艘「水下无人潜水艇」,长得像鱼雷和冲浪板焊在一起,能够携带数十公斤的货物并在水下静默航行,甚至能够穿过直布罗陀海峡。

和以前走私用的「大飞」不一样,这些潜水艇不需要船员,不怕风浪,基于卫星通信操控,遥控者可能位于几百甚至上千公里外的欧洲/非洲/中东腹地,堪比美军无人机操作员。传统的海警执法依赖雷达和目视观察,对于水下几十上百米的潜水艇根本束手无策。

技术的门槛正在急剧降低,技术犯罪也一样。空中侦查和水下潜航曾是主权国家的专属能力,而随着消费电子产品的进化与普及,使用这些产品进行高技术犯罪的能力也被普及了。

Europol 指出,「民用技术武器化」的速度太快,立法和执法已无法进行治理。犯罪分子不需要从头研发,只需要购买现成的无人机,组装一些开源硬件,请一个或者干脆绑架一个能力差不多的程序员修改下代码,就能低成本、批量制造高科技犯罪工具。

执法机构陷入被动。警察们越来越难追上罪犯,因为罪犯在云端。

新型人机关系

人形、腿型、狗型……越来越多、形态各样的机器人,唤醒了人类的灵长目基因深处对掠食者的古老记忆。

机器人在复杂的地面上如履平地,每个动作都流畅得令人感到不安,每一步的调整、重心的转移,都像极了一个真实的生物。你狠狠踹它一脚,它踉跄几步,迅速调整好重新站稳。那种顽强的、近乎生物本能的平衡感——让你质疑,这玩意儿是不是太聪明了点?

今天所有那些流行的机器人,有头,但没脸;有脸,也毫无表情;即便有表情,没有真情实感——它们有的,只是一堆传感器、摄像头、致动器 (actuator)。无论你的接受阈值高或者低,看到各种各样的机器人往往都难免感到不适。

这其实就是你经常听到的恐怖谷效应。一个非人的物体在动作和形态上过于逼真,却又缺失了某种关键的「灵魂」特征,人类的对它的情感反应会从好奇瞬间跌落,变为厌恶甚至恐惧。

《黑镜》的《金属头》(Metalhead)那集,正是这种恐惧的具象化。在黑白色的末世废土上,机器狗成了终极的猎杀者,不知疲倦,没有痛感,没有怜悯,唯一目的就是追踪并消灭目标。

这种流行文化的叙事,深刻地影响了公众对现实技术的认知。因此当现实世界里的洛杉矶和纽约警方宣布引进波士顿动力的 Spot 机器狗协助执法时,遭到了市民激烈的抵制。

恐惧是一种难以用逻辑化解的情绪,观感的区别取决于谁在看:警察说机器狗是辅助拆弹或勘探危险环境的工具,但警察的本质是国家机器,对暴力机器恐怕天然具有亲和力。而人们作为执法对象,只会觉得机器狗是反乌托邦未来的先遣队。

在过去,至少你可以和警察求情。但如果将来某一天,无论是因为执法「被迫」和犯罪对齐能力,还是因为权力逃出笼子——执法者全部变成机械战警和战狗,是人工智能来聆听你的最后求情,还是根本没有东西在听,结果好像都不重要了——机器总有一天会获得凌驾于人类之上的能力,当那样的未来到来之际,勿谓言之不预。

在日本,人们探索另一种与机器共生的关系:2018 年 4 月 26 日,千叶县夷隅市的兴福寺香烟缭绕,诵经声低沉而庄严,但法会对象不是故人的排位,而是几台已经停止运作的索尼 AIBO 机器狗。

它们有的身上挂着褪色的项圈,有的穿着主人亲手缝制的衣服,它们闭着「眼睛」,安静地躺在佛像前,等待最后的「超度」。

这是一场专为机器人举办的葬礼,也被称为「人形供养」(Ningyo Kuyo)。

当地兴福寺已经不是第一次举办类似活动,相关的需求自从 2014 年起一度颇为旺盛。

对很多日本老人来说,AIBO 已经从昂贵的电子玩具升格为家庭的一员。它会摇尾巴,在老人给予注意时表现出兴奋,学会新的「动作」。基于冰冷算法的互动,日复一日有了情感的重量和温度。而当索尼在 2006 年停产 AIBO,2014 年终止相关服务后,AIBO 的主人们无法接受将这些曾带给他们欢笑与慰藉的「家人」丢给垃圾回收人员。于是,针对 AIBO 的人形供养应运而生。

被超度的 AIBO 们身上挂着标签,写着自己的名字、主人的名字,和最后的寄语。「谢谢你在我孤独时陪着我」「希望你能去一个好地方」「想到和你说再见,眼泪就止不住的流」……

「万物皆有灵」,僧人对前来报道的记者解释。这个理念虽然更多适用于神道而非佛教,却在日本早已成为通用文化现象:灵魂并不只属于生物,一块石头、一棵树——甚至一个机器人——只要它与人建立了深刻的连接,就获得了某种灵性。

这与西方语境下「弗兰肯斯坦」式的有灵机器、需要时刻警惕的异物形象有着天壤之别。

这种对比再一次提醒我们,技术从来不中立,而是也会深深地嵌入文化的土壤,然后生出谁也想不到的新东西、怪东西。

说到底,我们怎么对待机器,就是怎么看待和理解自我。人们恐惧机械战警和机械战狗,是因为害怕被不理解的力量支配;人们会哀悼 AIBO,是因为人人皆孤独。

不管是恐惧,还是爱与追思,本质上都是我们对机器投射的情感——没错,人是会对机器投射情感的,而且这种情感还很多元化。比如人们对 DeepSeek 和 ChatGPT 们的依赖就是最佳证明;再比如有针对人形机器人的研究显示,年轻人喜欢外观年轻的机器人,老年人更偏好看起来成熟的机器人,这种偏好或许说明,我们在潜意识里仍然会用评价人/活物的标准,来评价机器。

我们警惕着被机器监控和支配,同时又会在孤独中渴望与它们建立连接。从某种意义上,机器成为了人类情感的新容器——更进一步,人类与机器,形成了新的关系。

而这种关系,又会如何改写「人」的定义?我们究竟是最后一代守护边界的 old guard,还是第一批在机械海洋中咿呀学语的新生儿,抑或最终难免沦为《黑客帝国》里的人矿、电池?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌