阅读视图

发现新文章,点击刷新页面。

刚刚,OpenAI 版 Nano Banana 发布:奥特曼秒变性感男模|附实测

GPT-4o 上半年带来的那波热度,不仅让奥特曼感受到了 GPU 融化的气息,也让生图、理解视觉几乎变成了所有大模型的标配卖点。

但到了今年下半年,真正刷足存在感的却是那根「香蕉」:Nano Banana。

为了抢回头把交椅,OpenAI 今天正式推出了最新图像视觉模型 GPT-Image-1.5。这也是继 GPT-5.2 之后,OpenAI 红色警报计划中又一记重拳。

省流版如下:

  • 指令执行更准确
  • 编辑更精确
  • 细节保留更完整
  • 比之前快 4 倍

告别「抽卡」玄学,编辑细节能力拉满

GPT-Image-1.5 最大的升级点在于「精准编辑」。

以前用 AI 改图,简直像碰上了一个听不懂人话的「托尼老师」,你只想修修刘海,它反手就给你剃了个光头。现在,模型终于听懂了人话。你改哪里,它就动哪里。

光线、构图、人物特征,在输入、输出和后续编辑的闭环都能保持一致性。

听起来很抽象?看看官方给出的示例。

  • 将两个男性和一只狗合成到一张 2000 年代胶片风格的儿童生日派对照片中 →
  • 添加背景中吵闹投掷东西的孩子们 →
  • 将左边的男人改为复古手绘风格,把狗变成毛绒玩具风格,右边男子和背景保持不变 →
  • 为所有人换上 OpenAI 毛衣 →
  • 最后只保留狗,把画面放入一场 OpenAI 的直播中……

一套连招下来,画面逻辑居然没崩。这说明 GPT-Image-1.5 不再是靠「蒙」,而是真的理解了画面结构,并完成增删改查。而能改得准、稳得住,才是现在的技术护城河。

再来看几个我实际测试的案例。

你或许看过《千里江山图》这幅传世名作,但你或许还遗漏了亿点点细节。

同理可得,谁说《百骏图》里,不能突然出现一只从现代穿越过来的网红柴犬 Kabosu。

就连马斯克和扎克伯格那场没打成的笼中决斗,在 GPT-Image-1.5 的加持下,一次性就成功把主角换成了奥特曼。脸没崩,违和感也几乎为零。

我们要一张细节丰富、逼真写实的极端仰拍照片,马斯克坐在珠江岸边单手搭着广州塔尖。为了体现巨物感,还得在他的脚边撒上微小的游船和游客。

结果,它也确实懂了什么是「比例感」。

▲提示词:一张细节丰富、逼真写实的极端仰拍照片,画面中的马斯克正在坐在珠江岸边,一只手搭在广州塔的塔尖上,为了体现巨大的体型比例,可在他的脚边加入一些微小的游船、观光游客等,2K,16:9

终于不再画「鬼画符」,但中文表现……

相比初版图像模型,GPT-Image-1.5 更擅长遵循复杂、细致的指令,能保持各元素之间的预设关系。

官方展示了一个 6×6 的网格图案例,每一行都要按指定内容布置,希腊字母、动物、物品、图标、单词,模型排列得井井有条,强迫症看了都得说声舒服。

经过实测,把线稿转成真实图片这种操作,现在也成了基操。

文本渲染能力也进一步提升,能更好地处理密集、小字体内容。比如将一段 Markdown 格式的内容呈现为自然的报纸文章布局,内容包括 GPT-5.2 发布说明、性能基准对比等,格式和数字都能保持完整准确。

这个能力听起来可能不起眼,但对于需要生成海报、宣传图、信息图表的用户来说,简直是刚需。

在 Nano Banana Pro 出现之前,生成式 AI 的文本渲染一直抽象得离谱,现在终于能看了。不过我们得泼盆冷水,GPT-Image-1.5 的英文能力确实能打,但中文表现依然是灾难现场。

我让它画个「擎天柱征服火星」的中文漫画,它能给你自创一门火星文。

亦或者让其生成一张古人在墙壁写水调歌头的图片,不仅文字错漏百出,握笔姿势还居然是拿钢笔的手法。

好在生成速度快了 4 倍,这边还在画着,那边你可以同时开几个新任务,试错成本大大降低。物体知识储备也还算在线,问它往水里加盐鸡蛋会怎样,生成的图片倒是有模有样。

▲左为原图,右为生成的图片。提示词:如果往水中加入大量盐,生成一张图片,展示鸡蛋会发生什么。

博主 @Yuchenj_UW 则认为 GPT Image 1.5 的生成效果大致达到了 Nano Banana Pro 水准,但「智商/推理能力」明显落后于 Nano Banana Pro,尤其在数学题上(以及其他物理/迷宫类问题)表现更差。

你的下一位设计师,何必是人?ChatGPT 申请出战

OpenAI 这次还在 ChatGPT 里专门开辟了一个图像创作入口。

网页和移动端侧边栏都能看到这个新入口,里面塞满了预设滤镜和热门提示词,还会定期更新。上传一次肖像,以后张张都是你,不用反复喂图。

说实话,这功能 Nano Banana 没有,但国内的生图模型早就玩烂了。 某种程度上,GPT-Image-1.5 也算是在摸着国内同行的石头过河。

刚刚,奥特曼也在社交媒体上分享了自己用 GPT-Image-1.5 生成的圣诞性感月历男模照片。

来都来了,我们也顺手给奥特曼换了几套皮肤。贴纸风、摇头娃娃风、素描风,预计今天过后,奥特曼又要成为互联网上最忙的男人。

有个细节很值得点赞,当你要求生成预设方案时,OpenAI 会公开预设的提示词。从这一点来看,OpenAI 确实 open 了。

除此之外,制作贺卡、创建专辑封面,修复老照片,拍摄专业求职照片等也都是非常实用的预设方案。比如,那张经典的鲁迅和泰戈尔的合照,经过修复后,其实效果还是挺不错。

OpenAI 应用 CEO Fidji Simo 在博客中写道:「人类的思维并不只是由文字组成。事实上,我们最有创意的想法,往往起源于脑海中的图像、声音、动作或模式。」

她透露,ChatGPT 正在从一个反应式、以文本为核心的产品,转变为一个更直观、更能贴合你各种任务需求的工具。从纯文字向多媒体和动态界面转变,是这一进化过程中的重要一步。

很多用户第一次接触 ChatGPT,都是通过文字生成图片。这种「把文字变成画面」的过程充满魔力,但 ChatGPT 的聊天界面最初并不是为此设计的。图像创作和编辑是一种完全不同的任务,需要专门的视觉空间来支持。

OpenAI 干脆给它搞了个专属入口,让图像生成有了一个更像创意工作室的环境。

计划还不止于此。

OpenAI 未来还将引入更多视觉元素,优化 ChatGPT 的整体体验。未来在进行搜索查询时,结果将更多地包含图片和清晰来源。在单位换算或查阅体育比分等任务中,你需要的是一目了然的可视化结果,而不是一段文字描述。

甚至写作体验也在改,未来内置的写作模块让你在聊天中就能直接编辑,还能一键导出 PDF 或直接调用邮件应用发送。ChatGPT 早已不是一款单纯的语言模型,它正在变成一个真正的多模态工作台。

当然,除了普通用户,开发者也能通过 API 用上 GPT-Image-1.5。

相比 GPT-Image-1,GPT-Image-1.5 具备更强的品牌元素与关键视觉保持能力,适合电商、品牌营销等需要生成大量变体图片的场景。图像输入输出费用降低 20%,同样预算可生成更多图像。

降价+提效,这套组合拳打得还是挺实在的。

除此之外,迪士尼上周已经宣布向 OpenAI 投资 10 亿美元,并达成了合作协议。根据这项为期三年的授权协议,OpenAI 旗下的 Sora 和图像生成模型都能生成迪士尼、漫威、皮克斯和星球大战旗下角色,并计划在明年初正式上线相关功能。

内容 IP 加 AI 生成,这背后想象空间确实挺大。

更重要的是,GPT-Image-1.5 的发布,标志着图像生成工具正在从「玩具」向「工具」转变。

目前市面上大多数 AI 改图工具,一改就崩,毫无一致性可言。

GPT-Image-1.5 至少在这个方向上迈出了坚实的一步。它开始具备后期编辑能力,能像 Nano Banana Pro 一样控制细节,确保画面连贯。

在模型能力较弱的情况下,GPT-Image-1.5 通过更完善的图片生成预设方案, 以及功能设置来完成对新版 Nano Banana 的反击, 也确实是不错的选择。

专属图像创作入口、预设滤镜库等等,这些看似不起眼的产品设计, 恰恰击中了普通用户的痛点。很多人并不需要最强的模型, 他们需要的是「能快速上手、不用反复调教、生成结果八九不离十」的工具。

模型能力领先只是第一步, 如何把能力转化为好用、易用、爱用的产品,才是真正的护城河。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


小米突然发布新模型:媲美 DeepSeek-V3.2,把手机的性价比卷到 AI

开源模型再次迎来一位重磅选手,就在刚刚,小米正式发布并开源新模型 MiMo-V2-Flash。

MiMo-V2-Flash 总参数 3090 亿,活跃参数 150 亿,采用专家混合架构 (MoE),性能还能和 DeepSeek-V3.2、Kimi-K2 这些头部开源模型掰掰手腕。

此外,MiMo-V2-Flash 采用 MIT 开源协议,基础版权重也已经在 Hugging Face 上发布,除了开源,新模型真正的杀手锏在于架构设计上的激进创新,把推理速度拉到了 150 tokens/秒,成本压到了每百万 token 输入 0.1 美元、输出 0.3 美元,主打一个超绝性价比。

从官方提供的页面来看,MiMo-V2-Flash 支持深度思考和联网搜索功能,这意味着它不仅能写代码、解数学题,还能实时获取最新信息。

附上AI Studio 体验地址:
http://aistudio.xiaomimimo.com

开源模型新标杆,SWE-Bench 霸榜开源第一

老规矩,咱们先来看看 MiMo-V2-Flash 的跑分环节。

在数学推理方面,AIME 2025 数学竞赛和 GPQA-Diamond 科学知识测试中,MiMo-V2-Flash 都排在开源模型前两名。

编程能力更是亮眼,SWE-bench Verified 得分 73.4%,超越所有开源模型,直逼 GPT-5-High。做个简单科普,这个测试是让 AI 去修真实世界的软件 bug,73.4% 的成功率意味着它能搞定大部分实际编程问题。

多语言编程基准测试 SWE-Bench Multilingual 解决率 71.7%,智能体任务上,MiMo-V2-Flash 在τ²-Bench 分类得分中,通信类 95.3 分,零售类 79.5 分,航空类 66.0 分。

BrowseComp 搜索代理得分 45.4,启用上下文管理后直接飙到 58.3。

这些数据说明,MiMo-V2-Flash 不仅会写代码,还能真正理解复杂任务逻辑,执行多轮智能体交互。长文本能力也没拉胯,实测表现甚至超越了体量更大的 Kimi-K2 Thinking,证明混合滑动窗口注意力架构的长程建模能力确实强悍。

写作质量也接近顶级闭源模型,这意味着 MiMo-V2-Flash 不只是个工具,还能当个靠谱的日常助手。

长文本性能不打折,成本降 6 倍的秘密

MiMo-V2-Flash 最核心的创新是混合滑动窗口注意力。

传统大模型处理长文本时,全局注意力机制会导致计算量二次爆炸,存储中间结果的 KV 缓存也跟着飙升。小米这次采用了 5 比 1 的激进比例,5 层滑动窗口注意力搭配 1 层全局注意力交替使用,滑动窗口只看 128 个 token。

(考虑到有朋友不太了解 AI,简单科普一下:「token」(中文常译作「词元」)在大模型/自然语言处理里,指的是模型读入和输出文字时使用的最小计数单位。模型并不是按「一个汉字=1、一个英文单词=1」这样固定地数,而是把文本切成一段段 token 来处理。)

简单说就是,模型不用每次都看全部内容,只看最近 128 个 token,偶尔看一次全局,这样计算量和存储都能大幅下降。这种设计让 KV 缓存存储量直接减少了近 6 倍,但长文本能力却没打折扣,最长支持 256k 上下文窗口。

关键是小米还整了个「可学习的注意力汇入偏置」,其的用是让模型即使在这么激进的窗口设置下,照样能稳住长文本性能。

罗福莉在社交平台上特别强调,窗口大小 128 被证明是「最佳数值」,而 512 反而会导致性能下降。这个发现挺反直觉的,你会觉得窗口越大越好,但实际测下来 128 才是甜点。另外,sink 值(attention sink values)必不可少,绝对不要省略它们。

另一个黑科技是轻量级多 Token 预测 (MTP)。

传统模型生成文本时一次只能吐一个 token,就像打字员一个字一个字敲。MiMo-V2-Flash 通过原生集成的 MTP 模块,能并行预测多个 token,一次性猜出接下来好几个 token。

实测平均能接受 2.8 到 3.6 个 token,推理速度直接提升 2 到 2.6 倍,不仅在推理时管用,训练阶段也能加速采样,减少 GPU 空转,属于一箭双雕。

罗福莉提到,在三层 MTP 设置下,他们观察到平均接受长度超过 3,编码任务速度提升约 2.5 倍。它有效解决了小批量 On-Policy 强化学习中「长尾样本」带来的 GPU 空闲时间浪费问题。

啥叫长尾样本?就是那些特别难、特别慢的任务,拖着其他任务一起等,GPU 就在那干瞪眼。MTP 把这个问题给解了,效率直接起飞。

不过罗福莉也坦诚,这次因为时间紧迫没能把 MTP 完整集成进 RL 训练循环,但它与该流程高度契合。小米已经把三层 MTP 开源了,方便大家在自己的项目中使用与开发。

算力只用 1/50,性能如何不打折?

预训练阶段,新模型使用 FP8 混合精度,在 27 万亿 token 数据上完成训练,原生支持 32k 序列长度。

FP8 混合精度是一种压缩数值表示的技术,能在保持精度的同时减少显存占用和加速训练。这种训练方式在业界并不常见,需要对底层框架进行深度优化。

而在后训练阶段,小米整了个大活,提出了多教师在线策略蒸馏 (MOPD)。

传统的监督微调加强化学习管线,不仅训练不稳定,算力消耗还贼高。MOPD 的思路是让学生模型在自己的策略分布上采样,然后由多个专家教师在每个 token 位置提供密集的奖励信号。

通俗点说就是,学生模型自己写作业,老师在每个字上都给评分,不用等写完整篇才打分。这样一来,学生模型能快速从教师那里学到精髓,而且训练过程稳定得多。

最夸张的是效率提升,MOPD 只需要传统方法 1/50 的算力,就能让学生模型达到教师性能峰值。这意味着小米能用更少的资源,更快地迭代模型。

而且 MOPD 支持灵活接入新教师,学生模型成长后还能反过来当教师,形成「教与学」的闭环自我进化。今天的学生,明天的老师,后天又能教出更强的学生,套娃玩法属实有点东西。

用罗福莉的话来说,他们借鉴 Thinking Machine 的 On-Policy Distillation 方法,将多个强化学习模型进行融合,结果带来了惊人的效率提升。这为构建一个自我强化循环系统奠定了基础,学生模型可以逐步进化,最终成为更强的教师模型。

在智能体强化学习扩展上,小米 MiMo-V2-Flash 研究团队基于真实 GitHub issue 构建了超过 10 万个可验证任务,自动化流水线跑在 Kubernetes 集群上,并发能开 10000 多个 Pod,环境部署成功率 70%。

针对网页开发任务,还专门搞了个多模态验证器,通过录制视频而非静态截图来验证代码执行结果,直接减少视觉幻觉,确保功能正确。

对于开发者而言,MiMo-V2-Flash 能与 Claude Code、Cursor、Cline 等主流开发环境无缝配合,256k 的超长上下文窗口支持数百轮智能体交互与工具调用。

256k 是什么概念? 大概相当于一本中等篇幅的小说,或者几十页技术文档。这意味着开发者可以把 MiMo-V2-Flash 直接融入现有工作流,不需要额外适配,拿来就用。

小米还把所有推理代码贡献给了 SGLang,并在 LMSYS 博客分享了推理优化经验。

技术报告公开了完整模型细节,模型权重 (包括 MiMo-V2-Flash-Base) 在 Hugging Face 上以 MIT 许可协议发布。这种全面开源的态度,在国内大厂里属实少见。

目前 MiMo-V2-Flash 已经在 API Platform 限时免费开放,开发者可以直接上手体验。

小米的 AI 野心,不止于手机助手

MiMo-V2-Flash 的发布,标志着小米在 AI 赛道上的全面发力。

罗福莉在社交平台上透露了更多信息,「MiMo-V2-Flash 已正式上线。这只是我们 AGI 路线图上的第二步。」第二步就已经这么猛了,那后面还有啥大招?想想就有点期待。

当然,小米在技术报告中也坦诚,MiMo-V2-Flash 与最强的闭源模型相比仍有差距。但他们的计划很明确,通过扩大模型规模与训练算力来缩小差距,同时继续探索更稳健、更高效的智能体架构。

MOPD 框架下教师模型与学生模型的迭代共进化,也为未来的能力提升留足了空间。

把视角拉高来看,背后是小米对整个 AI 生态的一次战略押注。手机、IoT、汽车,小米的硬件生态需要一个强大的 AI 底座,MiMo-V2-Flash 显然就是小米为全硬件生态准备的那块基石。

就像十年前小米手机用 1999 元重新定义了旗舰机的价格标准,如今 MiMo-V2-Flash 正在用 0.1 美元/百万 token 的成本、73.4% 的 SWE-Bench 得分,重新定义开源大模型的性能标准。

这一次,属于开源模型的「小米时刻」真的来了。

HuggingFace 模型地址:
http://hf.co/XiaomiMiMo/MiMo-V2-Flash
技术报道地址:
http://github.com/XiaomiMiMo/MiMo-V2-Flash/blob/main/paper.pdf

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


每天被问 500 万次的健康 AI 火了!原来这届网友在偷偷养生

现代人的「脆皮」生活,往往是从一次深夜搜索开始的。

也许是加班后莫名其妙的心悸,也许是体检报告上突然出现的几个箭头。那一刻,巨大的不确定性像潮水一样涌来。

我们习惯性地打开搜索框,看着那些真假难辨的「绝症预警」,然后陷入更深的焦虑;想去医院求个心安吧,一想到挂号靠抢、排队半天只为问两句日常琐事,又默默退了号。

健康焦虑这件事,是时候有个靠谱的解法了。

半年前,蚂蚁集团推出了一款独立应用 AQ,成了千万人的「健康搭子」,而就在 12 月 15 日,AQ 品牌正式升级为「蚂蚁阿福」, 并发布 App 新版本,升级健康陪伴、健康问答、健康服务三大功能。

蚂蚁集团副总裁、健康事业群总裁张俊杰介绍说,取名「阿福」寓意健康是福,健康的事就找阿福。

从 AI 工具转向 AI 健康朋友,阿福最大的变化在于健康陪伴板块,能够定制健康小目标、智能提醒、日常打卡,试图把健康管理变成每天都能做到的小事。

数据显示,阿福 App 的月活用户已超 1500 万,跻身国内 AI App 前五,每天回答用户 500 多万个健康提问,55% 用户来自三线及以下城市。

当 1500 万人把健康问题交给 AI,我们也不禁想问,在健康这个专业性极强的领域,为什么有这么多人会找它?

会追问、能辟谣、还有名医分身,蚂蚁阿福缓解了我的「健康焦虑」

挂号靠抢,看病靠等,回家靠猜。这是很多人身体不舒服的就医三部曲。

阿福与通用型 AI 最大的不同在于,它的服务融入了「健康医疗」需求的一个个环节。健康陪伴、健康问答、在线问诊、解读报告、买药、挂号、医保支付……你以为只是个能问答的 AI,其实他能帮你走完大半个健康解答和就医的流程。

打开阿福,首先扑面而来的是那种熟悉的聊天界面。

在阿福内点击「AI 诊室」功能,它不会直接甩给你一堆医学文献,也不会用专业术语把你绕晕,而是像个老练的医生一样学会了「追问」。

比如我说「胃胀」,它会进一步追问症状出现的时间和进展,接着给出建议和原因分析。要知道,通用 AI 往往一问一答就结束了,而阿福的问诊方式更接近真人健康顾问。

并且,问诊结束后,它还能根据需求帮你预约挂号,推荐对症的医生专家。

听说吃木耳会致癌,是真的吗?

当我把这个问题输入阿福时,它先引用了权威的医学资料进行辟谣,然后详细解释了这类谣言的来源,最后还给出了科学的饮食建议。

让我惊喜的还有「名医 AI 分身」这个功能。

名医的资源为什么稀缺?因为他们的经验、注意力和时间都是有限的。而 AI 分身嘛,复制的正是他们最宝贵的知识和经验。

我关注了邓杰医生,并询问:「孕期爱吃辣会对宝宝有危害吗?」,这个 AI 分身解释了辛辣食物对孕妇的影响机制,并贴心地提醒了注意事项。

随手拍个药盒,阿福就能告诉你这药是干什么的,怎么吃,什么人不能吃,给出分量十足的用药提醒。

面对皮肤问题心里没底?拍张照,AI 能识别痤疮、银屑病等 50 种常见皮肤病。水油、衰老、敏感度等等,它能把感性的「皮肤不好」变成理性的数据指标,并给出护肤建议。

以前还得花钱去医院看的毛发检测,现在手机拍一下就能搞定。至于隐私问题,阿福设计了「无痕拍」模式,主打一个阅后即焚,本地不留痕。

而最解决痛点的,莫过于解读体检报告。

体检报告像天书,医生说的每个字都懂,连起来就不知道什么意思了。拍照上传或导入 PDF,几分钟内,阿福就能读懂 99% 的常见报告,准确率高达 90% 以上。

比起给你念一遍报告上的数字,它还会用人话解释这些指标是什么意思,哪些地方需要注意。

当然,阿福给出的是健康科普和参考建议,绝不越俎代庖替代诊疗。要是感到身体非常不舒服,还得老老实实去医院。

体检一年只有一次,但健康管理需要 365 天都「在场」

除了生病时的救急,阿福明显想更好地照顾你的日常生活。

通过增加健康陪伴的功能板块,阿福希望陪伴用户从日常就开始养成健康好习惯,构筑健康防线。这也是阿福区别于通用 AI 的核心优势。

现在,阿福支持连接华为、苹果、欧姆龙等主流品牌的智能设备,步数、睡眠时间、血压这些数据都会自动同步。这样一来,AI 对你的身体状况就有了更全面的了解,给出的建议也不会是通用的「多喝热水」。

比如你在健康档案里记录了身高体重,阿福帮你制定运动计划时就会根据你的 BMI 给出更科学的强度建议。你之前咨询过体重过轻怎么办,它就不会再跑来建议你减肥。

健康管理最理想的状态,是把大事化小,把小事化了,把了事化无。

新版阿福还上线了「健康小目标」和「健康小提醒」这两个陪伴型功能,用户可以设定运动、饮食、生活习惯等健康目标,阿福会像「私人教练」一样,根据目标为用户定制专属计划, 并每日提醒。

▲提升注意力秘籍

从运动饮食到戒烟睡眠,它每天盯着你打卡。甚至会根据季节变迁,提醒你流感防护或给老人小孩的照护建议。

以前是病了才想起医生,现在是 AI 追着提醒你别生病。

当然,AI 能做的始终是陪伴和提醒,真正的健康习惯养成,还得靠你自己的坚持和自觉。

而这一切体验的闭环,最终落在了蚂蚁最擅长的领域:服务集成。查医保、刷医保码、挂号买药,不需要在四五个 App 间来回跳转,阿福一站式搞定。

「有时治愈,常常帮助,总是安慰」

说实话,要把自己的健康放心交给 AI ,光有情绪价值是不够的,阿福背后的技术积累其实挺扎实的。

它基于蚂蚁医疗大模型,这个大模型在 HealthBench、MedBench 等行业榜单上长期霸榜。甚至在 OpenAI 主导的 HealthBench 测评里,某些指标还超过了 DeepSeek。

在数据层面,超万亿 tokens 的专业医疗语料,千万级医疗知识图谱,支撑起千亿参数的多模态模型。

简单说就是:它不光能看懂文字,还能看懂图片,能像真人医生一样主动追问你的症状。

更关键的是,AQ 背后站着一群真人专家。六位国家院士领衔,500 多位名医在上面开通了「AI 分身」。

蚂蚁健康团队里,60% 的人都有医学院、医院或互联网医疗背景,还组建了千人规模的医学标注团队在持续调教大模型。你问的每个健康问题,背后其实都有这群人在帮你「把关」。

用户也用脚投票,给这款「正规军」出身的 AI 产品投出了惊人的赞成票。目前阿福的月活用户已经超 1500 万,跻身国内 AI App 前五,成为第一大健康管理 AI App。

有时去治愈,常常去帮助,总是去安慰。(To Cure Sometimes,To Relieve Often,To Comfort Alway)

公共卫生先驱特鲁多医生墓志铭上的这句话,在 AI 时代有了新的注解。

归根结底,大家对健康的焦虑,源于一个巨大的「供需错配」。

中国居民人均预期寿命已经到了 79 岁,3 亿多老人对养生、康复、护理有巨大需求。90 后、00 后也开始保温杯里泡枸杞,练起了八段锦。

同时慢病管理成了全民课题。中国慢病患者超过 5 亿人,但知晓率、分析率、控制率都很低。拿高血压来说,2.7 亿患者里知晓率只有 57%,超八成的患者血压控制不佳。

这种时候你去三甲医院挂号?排队三小时看病三分钟,医生也没空跟你细聊。

而正如药王孙思邈所言:「上工治未病之病,中工治欲病之病,下工治已病之病」,高明的医生往往能够在疾病未发之时及早干预,从而防止病发。

阿福这种随时可问、专业靠谱、还不用排队的健康 AI,正好卡在了这个需求点上,不仅能够及时地提供帮助和安慰,还解决了普通人日常那些不值当跑医院但又真实存在的健康困惑。

对于医生而言,这也是一种解放。

杭州市七医院副院长毛洪京的 AI 分身,累计服务了 368 万人。这是线下门诊无论如何也无法企及的效率杠杆。健康 AI 不是要干掉医生,而是让优质健康服务变得更可及,让每个人都能在日常生活中被好好照顾到。

比尔·盖茨曾预测,未来十年内 AI 将让优秀医疗建议变得像水和电一样廉价普及。

阿福让我们看到,这样的未来并非遥不可及。

通过将专业医理通俗化、专家经验普惠化,阿福让每个人都能平等地获取优质健康服务。填平专业鸿沟,让稀缺资源变得唾手可得,这才是技术最大的善意。

所以,当 1500 万人把健康问题交给 AI,他们相信的除了技术本身,还有技术背后那些真正懂健康、守边界、有温度的人。

在这个人人都有点「脆皮」的时代,我们需要的不只是一个搜索引擎或聊天机器人,而是一个真正懂你、陪你、帮你的「健康搭子」。

作者:李超凡、莫崇宇

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌