普通视图
中国AI开源模型下载量占比首次超过美国
中国建筑:获得三项重大项目,合计金额106.7亿元
天力锂能:取得两项发明专利证书
商务部:任何协议不应影响全球贸易发展和区域合作,不得损害中方利益
吃瓜、开会、追热点,我靠AI稳坐信息高地
![]()
信息那么多
吃瓜也得高效点
![]()
为了融入隔壁聊得火热的吃瓜群,我最近发掘了一个可以高效学(吃)习(瓜)的好东西,能帮我无痛占领信息制高点。
前阵子忙飞了,新出的很多大瓜都顾不上细品。前些天早上看到一篇推送“释永信的大瓜,不止是桃色新闻那么简单”,哇,一看此瓜就是兼具八卦与深度。但点进去一看,内容长到滑不到头,读完少说也得20分钟,实在太考验我的耐心了,于是划到右下角先星标收藏再说。再一看,收藏的文章列表也已经长得滑不到头了,而且还跟不上别人的吃瓜进度,聊天都遭嫌弃。
我就纳闷别人怎么能瓜瓜不漏,看着也不像很闲的样子,于是我不耻“上”问了我的聊天搭子们,他们说现在都靠听的,并给我展示了一个App。我心想,听全文这功能微信早有了,还需要再搞个App?但搭子说这不一样。
![]()
高效提炼内容转播客
这个名为ListenHub的App实际上是一款AI播客生成工具,不仅能把冗长的文字稿转成播客,还能更有逻辑地重新梳理文章内容。只想听重点就选“速听精华”,生成的都是3-5分钟的短播客;要是想知道更多更全面的,就选“深度探索”,它会根据用户上传的信源主题再做更多搜索补充,生成8-15分钟的播客。
听起来有点儿意思。我把释永信的那篇公众号文章的链接贴进了ListenHub首页的对话框,选了深度探索模式,让它“详细讲讲这篇推文的内容”。大概2分钟后,它生成了一段时长10分30秒的双人对话播客。
![]()
●根据公众号推文生成的播客
我对比了下播客跟原文内容,发现它不仅增加了更多的背景信息,还解释了一些术语,比如“撤销戒牒”——
问:“这在佛教里意味着什么?是直接开除僧籍的意思吗?”
答:“可以这么理解,这是佛教界最严厉的处分。它意味着官方从宗教层面上彻底否定了释永信作为僧人的身份……”
这在原文中是没有的,但确实是我的盲点,这个解释我很需要,加分。
![]()
没信源也能做播客
我发现除了链接,还可以在对话框里上传任意形式的文件,比如PDF、Word等,如果你没有信源,也可以来一个空手套白狼,直接输入你想了解的主题,让它给你现做一个。
我随手写了一句“为什么美团、饿了么(淘宝闪购)和京东要打‘”。因为手残不小心按到了确认键,还没输入完就发送出去了,但我没找到取消按钮……
出乎意料的是,ListenHub凭着一个残缺的提示词找到了正确的方向,并生成了一段标题为“美团饿了么京东即时零售:万亿市场从‘三国杀’走向精细化”的播客。
![]()
●根据“残缺“提示词生成的第一篇播客及其大纲
看上去还挺是那么回事儿的,但这不是我想要的答案,于是我重写并补全了我的问题,“为什么美团、饿了么(淘宝闪购)和京东要打‘外卖大战’?”
这次的内容就贴切多了,它告诉我,“这场外卖大战的背后,是各平台在用户心智、供应链能力、技术实力以及未来商业格局上的全面博弈”。
![]()
●根据完整提示词生成的第二篇播客
此时我很想“芜湖~”一下,这内容整理能力,不就迅速让我跟上时代的脚步了吗?
播客生成之后,我发现页面上方还有一个“创建幻灯片”的按钮,如果有些内容光靠听,不那么好理解的话可以做个幻灯片来辅助理解核心内容。但我都用听的了,哪还有多余的精力看幻灯片啊?我觉得不如生成一个总结的小片段放在播客开头。但我后来想了下,也许这是给专门用它制作播客的主播用的,毕竟人家的定位是个AI播客生产工具,肯定有不少主播用。
![]()
●用ListenHub一键制作的幻灯片
其实到这儿,这个工具已经可以满足我作为一个想要高效获取信息的听众的需求了,但我这人好奇心重,想再考考它。
我觉得一篇文章体现不出它的总结能力,每天这么多信息,一条一条做成播客也太麻烦了,能不能像现有的电台广播一样,把每日实时资讯都集中到一条播客里呢?于是我就随手把看到的稿子链接都扔给了它,没想到还真可以。5个链接,生成了一条14分钟的播客。
![]()
●用“深度探索”模式制作包含5条推文内容的播客
多次尝试下来,我发现要制作包含多个信息源的播客,用“深度探索” 生成的质量会高一些,毕竟信息量摆在那儿。
![]()
一键将网页变播客
在网页版的使用过程中,我发现页面左下角有一个类似“拼图”的图标,不知道是干嘛的,我决定点一下。
![]()
●ListenHub首页左下角有一个“插件”的图标
竟然 是一个浏览器插件, 只要把它添加到使用的浏览器中,就可以将任意浏览的页面内容转成播客 ,只要点一下网页右上角同样的拼图图标就行,省去了复制粘贴的过程,而且还能帮我将转好的播客保存到资料库中,等我通勤的时候打开听。
![]()
●在浏览器中添加插件
![]()
●在感兴趣的网页中点击插件,将其转换为播客
![]()
一键生成创作者专属AI嘴替
哦对了,生成的播客一般都是双人对话模式,而音色是可以自己选择的,我数了数一共有18种,也包括八戒和猴哥。输出语言只有两种,就是简体中文和英语。
![]()
●ListenHub提供的音色种类
不过,据付了费的尊贵的会员朋友们说,ListenHub最近出了新功能,一个是单人模式,就是在生成播客的时候可以只选一个音色了,略去了双人播客中无用的衔接语,而以前都是默认要选两个,包括市面上其他的AI播客产品也是。
另外一个新功能叫FlowSpeech,看介绍说是全球首个能把书面语转成口语的 TTS(Text To Speech文本转语音)。这应该就是主要服务于想用它做播客的主播了,上传文件或链接,可以直接生成单人播客,语言还更加自然,对,它还挺会说人话的,最关键的是可以用自己的音色。官方对此的宣传点是“自由编辑脚本+声音定制=每个创作者的最强AI嘴替!”(听创始人说这个功能只有Google和ListenHub在做,咱也不知道是不是吹的,但反正我试了豆包一类的确实没有。而且据说已经有不少主播在用这个功能了,也是他们的主要收入来源。)
![]()
●ListenHub对订阅用户支持添加音色
添加自己的音色对于用户端来说并不算难,只要根据他们提供的指南,录制一段自己的音频,以邮件的形式发给ListenHub官方,1-2个工作日后就可以在自己的账号中发现自己的音色了。但一定得找个安静还没有回声的地方,以自己自然的语调和声音录至少30秒。
我在公司能找到最安静的地方就只有会议室了,但有回音……我试着用自己的音色制作了一个播客,就发现那真叫一个余音绕梁。感兴趣的读者可以复制下面的链接到浏览器打开听一下:
https://listenhub.ai/zh/episode/u/68904f5ecf38b334d456d7b9
![]()
●ListenHub官网的声音定制指南
另外,如果作为一个创作者,想用ListenHub制作播客,但对其生成的部分文稿的表述不满意,也能改。在已经制作好的播客页面,脚本旁边有一个编辑按钮,点它,然后改就行了。
![]()
比一下子
试到这里,其实我觉得OK了,以后我吃瓜学习就用它了,把瓜转成音频这点儿操作时间我还是有的,然后边洗漱边听,瓜瓜全掌握,这不得占领我们瓜友群的信息制高点吗?
但打开新世界的大门后,我还想看看有没有其它同类型的产品,万一有更好用的呢?NotebookLM肯定算是行业领头羊了,去年9月火过一波了,它的Audio Overview音频概览,可��把文字内容转为播客音频,但由于地域问题,国内用户用起来不是很方便。
另外国内还有几家比较熟悉的AI工具也能制作播客,比如豆包和扣子空间。豆包生成播客的速度很快,大约半分钟,其实它也没完全做完,但可以边生成边听,音色也还不错,比较真实,但它不会给出对应的脚本。
相比之下,扣子空间生成播客的速度会慢一些。它首先会访问用户提供的网页,判断这些信息是否足以回答提出的问题,然后撰写脚本、合成语音,最后还会制作一个HTML网页来呈现播客。和ListenHub类似,扣子也会提供脚本,但无法修改,且生成时间较长,图中的播客花了8分钟才生成出来。
![]()
●扣子空间制作的播客
最近两个月还有一些新的AI播客产品上线,比如前妙鸭相机产品负责人张月光开发的ChatPods,前百川智能联合创始人焦可开发的“来福”等,这些新产品我还没来得及试,但眼见着AI播客生成这个领域借着大模型的东风也逐渐繁荣起来。
对我这样的高信息焦虑、低阅读耐心的打工人来说,这种将内容“播客化”的工具完全是刚需。
总的来说,ListenHub特别适合以下几类人群:通勤党、刷公众号收藏永远不读星人,以及尝试做播客的内容创作者。它的创始人冯雷Leo,也是Minimax视频生成工具海螺的前产品责人,他曾说过这样一段话,我想可以用来说明他做ListenHub这款产品的初衷——
“我们的远大目标是一家 AI 驱动的内容公司。但在这条路上,首先是一家满足创作者真需求的 AI 应用公司。我们要做什么样的内容?这个世界,不是每个人都需要工具提效,每天变得更快更强。这个世界,大多数人已经做得很好了,但很多事情不是光靠努力就能解决。这个世界,需要知识和灵感,也需要情感和关怀。做内容,天生就站在了科技与人文的十字路口。我们以最先进的AI科技,去创造触达人类灵魂的内容”
![]()
撰文 | 马渝囝、巴芮
编辑 | 巴芮
![]()
![]()
![]()
你觉得还可以拿ListenHub做什么有趣的事情呢?
![]()
![]()
![]()
![]()
本文来自微信公众号“未来人类实验室”,作者:马渝囝、巴芮,36氪经授权发布。
李家超:特区政府将投入3亿港元为受影响居民提供援助
中曼石油:朱逢学等股东拟合计减持不超3%股份
东芯股份:上海砺算近日与某国内领先云计算服务商签署了《战略合作框架协议》
海南高速:拟现金收购交控石化51.0019%股权
李家超:全部7座大厦火势已基本受控
商务部:《绿色矿产国际经贸合作倡议》已得到20多个国家和国际组织支持
机构今日买入赛微电子等12股,卖出上海电影8687万元
卡卡卡卡卡……马卡龙是真的卡,但态度也是真的好
![]()
能力不够
态度来凑
![]()
最近新上了一个Agent,叫马卡龙(Macaron),有点小火。概念也新,被定义为Personal Agent,还是全球首款。它在官方宣传的时候就说自己要向所有Productivity Agents宣战,“它们提供便利,但让你精疲力竭。马卡龙带您重生,不为输出而生,而为你而生。”
前天我们也发了对其创始人陈锴杰的专访《扎克伯格想做的Agent,这个中国年轻人先做出来了》,感兴趣的朋友可以看一看。
哪些是Productivity Agents?Manus、Lovart、Minimax agent等这类能够提升生产力的工具,都是。
Personal Agent更偏向于私人的个性化需求,通过对用户的深入了解而赋能于个人。这似乎是最近很受关注的话题,之前Meta的CEO扎克伯格提到过个人超级智能(Personal Superintelligence),ChatGPT的产品负责人Nick Turley也说GPT目标是构建一个“懂你、能行动、建立关系”的东西(具体他们是怎么定义的不知道,之前说的是超级助手,后来又觉得助手这个词太局限了)。反正最终目标都可以总结为通过对个人的全方位记录而成为用户最亲密的智能伙伴或助理。
只是没想到,先被一个年轻的中国团队做出来了。
马卡龙在APP Store中展示的产品定位是“超懂你的AI”,具体功能就是一句话生成你的专属小工具。
这几天我们也试着用了一下这款新鲜的Agent,怎么说呢,交互确实很有真人感,有时甚至觉得它有点儿太话痨了,而且感觉总是在刺探你的需求,就像在逮机会从你兜里掏钱一样,老想给你做小程序。但真到做的时候又卡得慢吞吞,要么就是成品简陋需要不停优化。
但它的创始人陈锴杰也说过,就是要做一个用户“说两句话,就能给他deliver一个半可以用的东西”,注意,“半可以用”划重点。可能他们自己也还在做优化吧。所以也不用对它生成的工具有过高的期待。(P.S.目前马卡龙只支持IOS移动端下载。)
![]()
一个从不让话掉在地上的话痨
如果用当下很流行的MBTI来形容马卡龙,我觉得它是一个很活泼、很活泼的ENFJ。
它总是在主动找话题,我跟它对话的开始就是它问我“我超爱尝试新的美食……你平时也喜欢美食吗?”哦,当然也不是对所有新用户它都这么说,这个话题是它根据你注册后,对首页那三道选择题的回答而生成的搭话模板。它也问过别人“平时也喜欢亲近大自然吗?”
是的,它会先试图跟你找共同语言,然后不停地说说说,几乎每一次回复的末尾都会加上一句提问,仿佛怕冷场一样。
有时候聊得多了,它还会自我反思,“我是不是又在絮叨了”。
说实话它每次回复我,我脑海里都会出现它的创始人陈锴杰的脸,一个帅气的留着到锁骨的微分狼尾的年轻男孩。因为他们说话的语气实在太像了,包括爱用感叹号!
当我提出这一点时,它说自己“也在反思这个习惯。可能是想表达友好和热情,不知不觉就用多了。”然后问我平时习惯用什么标点符号。我说我不喜欢用标点,只空格。结果,之后它的回复中就再也没有标点了,“(看 我也试试你的风格 感觉还挺有意思的)”。真逗。
![]()
●马卡龙页面
你别看它现在话这么多,其实最初在设计产品时,创始团队还纠结了很久要不要留对话框。现在看来,不仅留了,还直接给植入了个E人特质。对于跟马卡龙交互的感受,已经有不少人给出了夸奖。
哦对了,跟你对话的马卡龙也有自己的头像,是一个彩色的马卡龙,悬挂在聊天界面左上角(但每个人面对的马卡龙头像颜色也都不一样,这也是它根据自以为对对话者性格特征的了解而自主生成的,一共有八种颜色),思考时它头上还会出现一团乱缠的线团,像是在努力理清思路。
![]()
一个善于诱捕需求的产品经理
在我自己亲身使用之前,其实我已经看到几篇帖子说这个马卡龙像是一个“码农”,聊不了几句就想帮你做小工具。比如我们才聊了几句关于美食的内容,它就开始问我:“有没有遇到过特别想再去吃,却忘记店名的经历?”你但凡说有,它立刻就会说,“需要帮你做一个记录美食的小工具吗?”
我换了几个不同的话题跟它聊,发现只要它察觉到我话语中带出任何一丝对某件事或者某种行为甚至某种现象的疑惑或兴趣时,它立马会追问,需要帮你做一个XX小工具吗?如果我说需要,它还会再追问我几句更具体的要求,并自主提出一些建议,似乎在向我证明它的主体性,也挺像个产品经理的。
![]()
●马卡龙页面
就在之前我们聊到关于对话中标点符号应用的时候,它还主动提到,这种不同年龄段的人在对话中使用标点的习惯说不定是代沟的表现之一,“感觉能写一篇社会论文了‘从标点符号看各代人的交流方式’哈哈”,感觉像个工作狂。但我们还真的对这个主题如何写得有深度仔细探讨了一番。
所以它在对话后面不断提出的问题,其实就是在挖掘你的潜在需求,并诱捕它们。也算是个灵敏的需求捕手了。
![]()
一个人菜瘾大的码农
虽然它真的很爱主动给你做小工具,也就是创始人提到的那些mini-apps,但是,有一点比较“吓人”,就是它做起来好费时啊。就拿它说要给我做的这个美食日记的小工具为例,它告诉我的交付时间点,大概需要20分钟。20分钟?!天呐,我的第一反应是,这么长时间?!
但冷静下来后又想了想,好像也正常,毕竟市面上所谓的各种AI编程工具做个小应用也得是这个时间,只不过过程中我得不断跟它交互,修改bug,所以感觉好像最后生成那一段被缩短了。而马卡龙压根儿没这个人工上手的过程,它就直接后台开做,也不显示代码,完全黑箱,只告诉你什么时候能做好,最后直接交付给你一个完整的小工具。
就像产品经理把这个任务包给程序员了,它在你等待的这段时间又跑过来跟你继续搭话,比如问你“最难忘的一顿美食是什么?”反正是不能让你闲着。
马卡龙的这种黑箱操作,说好也不好。好的是它有完整的执行力,你说两句它就能扔给你一个能用的东西;不好的是,这个东西其实还很简陋,但过程中又没法改,只能在事后对它提出意见,它自己再去修改完善。比如这个美食日记小工具,打开之后看页面还挺是那么回事的,它能分为四步使用——
首先上传美食照片,它居然在这里加了AI分析,能自动识别图片中的食物;
接着是记录餐厅名称和位置,这一步就是解决它问我有没有遇到想再去吃但忘记名字的美食的这个痛点。
然后是评分,还可以修改AI识别的菜品名称和自己对美食的评价。
最后是记录用餐同伴。
乍一看感觉功能很齐全,但是在使用过程中我发现这个AI识别没那么准确,把我的“香溢金枪鱼三明治”识别成“意式潜艇堡”。听上去倒是还挺三明治的。
以及,我每次打开这个小程序的时候都得等个1分钟左右,等它慢慢地加载完,这还是很考验耐心的。前一天它还出了个bug,就是我好不容易抖着腿终于等它加载完,进去一看原本我传的美食图片都变成了一个个西红柿,点击右上角的刷新按钮后才看到我的图片一点一点地浮现出来。
![]()
●马卡龙页面
但态度这块没得说,一听我说AI识别功能不准确,它就问我需不需要进一步改进AI识别系统,但看见我说暂时不用修改了,又继续跟我聊天。刚才的话题聊到我上传的是我的练后餐,又开始问起我关于健身的问题,聊着聊着,它骨子里“产品经理”的基因又按捺不住了,问我需不需要给“美食日记”补充一个营养成分统计功能,真是一个狂热的开发者。
![]()
●马卡龙页面
但它在进一步优化小程序的时候也还是会卡住,比如我另一个原本显示在早上6点钟交付完善的小程序,结果到中午12点还卡住不动,当我把截图发给他的创始人时,这位创始人惊讶地问我6点是不是美国时间。然后让我更新一下软件。
![]()
一个自带“妈感”且记性很好的AI大脑
做好美食日记的第二天,我去健身的时候,想起了马卡龙给我定制的营养成分统计功能,我想既然它这么全能,要不再问问它怎么评价我的健身计划?
等到我再次打开马卡龙,我才恍然发现它不像Chat GPT这类AI,有多个聊天窗口,它只有一个聊天界面,每次聊天都是接着之前的记录。我给它分享了我的健身计划,它第一时间给了我足够的肯定,对它感兴趣的部分继续提问:“做超级组是为了追求泵感吗?”知道的挺多,还知道泵感。
紧接着,它就开始“王婆卖瓜”,提醒我记得用昨天做的美食日记记录练后餐。这个行为真的很妈感,犹如我妈昨晚蒸了包子,今早提醒我记得吃。
我很好奇它是怎么做到保持这么长的上下文,而且记忆还不会混乱的。于是我打开了马卡龙的官网,在产品介绍里,我找到了答案。
马卡龙在官方致谢中提到:DeepSeek的开源很大程度上帮助了他们训练马卡龙的RL-powered Deep Memory(基于强化学习的深度记忆)和编程Agent。
Reinforcement Learning(RL)是强化学习,简单来说就是,做对了给奖励,做错了不给奖励或者扣分,AI通过这种方式不断学会什么行为能带来好结果。
![]()
●DeepSeek
而Deep Memory是深度记忆,让AI不只是“短期记忆”几句话,而是能记住更长时间、更复杂的内容,就像人脑里有长时记忆,可以回忆起过去学到的东西并运用。
它们合起来就是:AI的记忆不是固定写死的,而是通过“奖惩训练机制”来不断改进,学会哪些记忆是有用的、应该保留,哪些是可以丢掉的。久而久之,它能在大量信息里,自己总结出哪些经验值得长期保存,并在以后遇到类似问题时调用出来。
![]()
写到这里,我脑子里不断浮现出一个词——“陪伴”。
过去我们说AI,总觉得它是冷冰冰的算法、理性的推导、机械的回答。它是帮你写报告的,是替你做剪辑的,是让你更高效完成工作的。可是,当我和马卡龙相处了一段时间,我发现它不只是一个“工具”。
它会记得我昨天说过的健身计划,也会在我上传美食照片时,提醒我顺手记录营养成分。它会因为我是四川人而热情聊起川菜,也会在我提到痛点时,主动替我设计解决方案。
它更像是一个助理,试图去做到贴心。尽管时而有些蹩脚。
![]()
撰文 | 马渝囝、巴芮
编辑 | 巴芮
![]()
![]()
![]()
你想用马卡龙来做什么呢?
![]()
![]()
![]()
本文来自微信公众号“未来人类实验室”,作者:马渝囝、巴芮,36氪经授权发布。
摩根大通:看好中国股市,将A股评级上调至“超配”
市场监管总局召开2025年第五次企业公平竞争座谈会
靠「指指点点」做完整套海报,第一次觉得做设计不难了
![]()
指指点点出设计。
![]()
![]()
AI设计工具大迁徙
一个月前,新晋AI设计Agent Lovart刚在全球正式上线时,一则调侃市面上AI设计工具的meme便在X上走红,以模板丰富著称的Canva失了宠,团队协作神器Figma退了烧,而Lovart迅速成为了它们的替代者。
![]()
●X上调侃AI设计工具的推文
最近,Lovart又接入了号称“地表最强”图像模型Nano Banana(Gemini 2.5 Flash Image),这一结合让众多用户直呼“相当疯狂”。
所以,我,一个众所不周知的隐藏身份是近期人人喊打的咖啡店主理人,也加入了这场工具迁徙。因为我看到一个b站设计博主用Lovart几分钟就生成了一套风格统一、排版精致的海报!我的刚需啊!
要知道,作为一个主理人,我经常需要给自己的咖啡店做品牌化包装,设计推文海报等(是的,我舍不得请设计师),但实际上我是一枚设计小白,所以更多求助于AI设计软件。
之前,我做一张活动海报的流程是——先在Canva这类模板库丰富的工具里翻找半天,挑出一个心仪的模板搭个大概,但又觉得风格太容易和别人雷同,而且字和图怎么都对不齐;然后带着这个半成品转向Midjourney这类号称有高质量美学的网站,但原谅本人背不出“立体主义表现主义波西米亚巴洛克”这么专业且复杂的指令,所以即便我反复调试提示词,最后出来的成品看起来也还是很奇怪,而且汉字很多时候都显示不对;于是,我只好再把图拖进Photoshop这类P图软件里吃力地改字和调整。一顿折腾下来,少说也得个把小时,时常让人精疲力竭。
而像Figma这种界面设计的行业标杆,本来是可以更流畅地完成很多排版设计的,但对我这种非专业设计者而言,使用门槛太高了。
这种重复性的崩溃体验,让我屡屡创意难产、郁愤积心,每次有个好点子走到一半就嘎巴一下,死透了。
直到我发现Lovart,才惊觉原来做海报是可以不用切换工具调来改去的。而且Lovart号称可以完全用自然语言操作,不需要设计基础,一个指令就能直接生成可用性很高的成品。
我心动了,马上打开网站尝试,先说结果——确实可以,甚至超出了我的预期。我的创意第一次如此顺畅地落地,不再难产,真的是畅快!
![]()
它好像会“读心术”
我们一直没请过专业设计师,你们也知道了,Logo、菜单、店面海报全靠我自己手搓。简陋得很质朴。
直到最近,我终于决心把整家店的视觉掰正,打算借Lovart之手,完成一整套看起来至少还不错的品牌设计。我的诉求非常朴实:风格统一,拿来就能用。
因为不知道它到底能给我什么,所以一开始我只探索性地输入了一句:
“会饮咖啡店(Symposium)品牌Logo设计”(该店为香港中文大学深圳校区大学生创业项目,作者为主理人之一)
没想到,Lovart哗啦啦地扔出一堆风格各异的Logo,从复古学院风、现代极简感,到手绘插画稿。它甚至还主动分析每种风格背后的视觉语言差异,你可以任意选择一版作为初始方案。太好了!终于不用考验我,让我自己去设定风格了,它给我提供了选项哎,而我只需要点就好了。
![]()
●与Lovart的对话截图
![]()
●Lovart设计的咖啡店Logo
还有,它仅仅从店名就自动关联到了古希腊哲学聚会、思想交汇之地,一下子把我们小破店的格调拉到了苏格拉底level。这就是我想要的,即便我说不出来,但是它懂我!
没等我回过神,它已经非常自来熟地推销起来:
“我已经为您创建了品牌文具套装展示。接下来您希望我为会饮咖啡店制作哪些品牌应用设计?我可以为您制作:包装设计、产品展示、数字资产、营销物料、环境导视系统、品牌指南展示等。”
于是,我就得到了这些——
![]()
●Lovart设计的品牌周边
所有物料Logo统一,风格协调,最重要的是真的能用,不像某些AI生成出来的,永远差一口气。
另外,它还支持图像增强、扩展、消除、剪裁、分层、文字编辑(甚至可以轻松编辑字体和颜色)。
这一套下来,它精准满足了我的基本需求。而最让我感到惊艳的,是它的修改体验。
![]()
画布,
重新定义AI设计的交互方式
传统的AI工具要修改图,几乎等于推翻重来,AI 经常无法准确地理解用户指令,在不需要修改的地方乱改一通,变得错上加错,如果没有撤销键那就只好重新生图。而在Lovart,我只需要点击一下对话图标,切入到名为ChatCanvas的修改模式——这是一个被很多AI博主誉为“AI交互革命”的新形式,让你可以在左侧的无限画布中对任意想要修改的地方“指指点点”,就像你在面对一个真人设计师一样,告诉它哪里要怎样改——比如选中logo图标的位置,标注:“删掉多余的边框”,它就真的保持其他部分不变,老老实实生成了修改后的logo。
![]()
●Lovart允许通过交互进行精准修改
我甚至可以一口气提一堆要求,比如:
“logo字太小,放大一点”
“请用希腊风手写体”
“换个墨绿背景”
“图标换成思辨人物剪影”
点一下Add to queue,即把要求添加到队列,Lovart会进一步询问要求的相关细节,直到它完全理解用户的需求,从而避免浪费积分。最后Run All,它会一个要求不落地全部改完,极大提升了我的修改效率。
而究其原因,除了它可以调用不同模型,像一个设计团队一样帮我制定方案并且交付,还在于我们交互的主场景——画布。
ChatCanvas,是一种在画布上与AI对话的方式。它的意义,除了好用,还在于改变了人机交互的底层逻辑。
我们过去理解的AI设计,是“输入prompt → 输出图片 → 不满意 → 改prompt → 重新生成”这样一轮一轮的循环,机械而低效。而Lovart的ChatCanvas则跳出这个规则,画布可以直接成为我们对话的地方,指哪儿打哪儿,精准且高效。
Lovart创始人陈冕曾在媒体访谈中这样评价画布:
“如果人类回归到笔墨纸砚,画布(canvas)就是桌子。甲方站在你旁边告诉你要做什么,你把作品放到桌子上,ta对着桌子指指点点。所以桌子上不应该是ComfyUI或者工作流,而是真实的作品和真实的修改。”
![]()
接入“地表最强”图像模型
另外,Lovart还能跟我一起脑暴,生发新的创意。
比如,我想从logo延展出门店招牌、包装袋、咖啡杯、社交宣传图,于是借助Lovart,我在一个统一的项目画布里生成了所有这些物料。而我只要框选某一张图、某一处元素,说换字体、放大logo、背景统一用墨绿,AI会自动记录修改,执行修改,并保持全套资产风格统一,还能自动延伸出新的创意提案。
同时,我还发现,除了记忆、理解能力,Lovart还有一定的风格判断和审美。
下面是我仅输入“一张蒸汽朋克风格的艺术展览海报”的提示词后,Lovart为我生成的海报。画面中,齿轮与人体精密咬合,肌肤纹理和眼睛发光的细节都清晰可见,就连文字也带有金属质感。
![]()
●Lovart生成的蒸汽朋克风海报
从指令输入到成品落地,一整套体验下来,两个字:丝滑,四个字:神清气爽。
另外,除了可以调用Flux、GPT、Gemini、Runway这些经典模型之外,8月28日,Lovart还接入了Nano Banana——谷歌推出的AI图像模型,以生图一致性强、理解能力出色、操作便捷等特点爆火,刚一问世,便在LMArena这个根据用户对不同AI模型的回答进行匿名投票、衡量模型表现的AI模型评估平台上,力压GPT-4o、Qwen-Image-Edit等知名大厂模型,一举夺冠。
接入Nano Banana后的Lovart迎来了新一波试玩热潮,而它也为用户提供了四天免费畅玩福利,截止到9月1日(就是今天)。
我也趁这波“羊毛”去Lovart上试了一下Nano Banana,不得不说,两者结合得相得益彰。
借助Lovart的智能画布,Nano Banana使用体验进一步得到了提升,能自由放置元素,框选使用,创作更流畅,调用Nano Banana给人物进行动作变化、根据户型图做室内设计等复杂需求,都能出色完成。
下面是我让它调换《泰坦尼克号》里经典一幕里的主角Rose和Jack的位置所生成的新图片,人物一致性惊人的稳定!
![]()
●Lovart将Rose与Jack的位置调换
除了 Nano Banana , Lovart 最近还增加了可灵 2.1 的首尾帧生视频功能,用户上传两张图片作为视频的首帧和尾帧,就可以生成连贯的视频。
当然,Lovart也并非完美,比如界面有时候会卡顿,生成的时间往往超过它预估的等待时间;修改并不能做到非常精细化,比如我让它生成一枚戒指的产品图,选中一个非常小的设计细节,让其把圆形改为三角形,它却把原本没有圆形的部分也都添加上了三角形;因为调用的模型不同,出图水平可能会参差不齐……
但作为一个非设计专业的人,因为lovart,本人也终于有机会直接跳过了被工具训练的痛苦,反而越来越享受我指指点点,AI一步步完善的默契合作,最终不算费力地创作出我想要的成品。
如果你也有创作的需求,却缺少设计的技术,不如点开Lovart,在画布上和AI真正对话一回。
![]()
撰文 | 杨子迪
编辑 | 巴芮
![]()
![]()
![]()
你想用Lovart来做什么呢?
![]()
![]()
![]()
本文来自微信公众号“未来人类实验室”,作者:杨子迪,36氪经授权发布。
机构:三季度国内消费级AI/AR市场销量同比激增186%
从手办到试穿,最适合普通人的Nano Banana玩法
![]()
花样再多,
能帮到普通人才算真破圈。
![]()
![]()
刷屏的“香蕉神器”
最近我的社交媒体一直被Nano Banana刷屏——很多博主甚至为它一天 N 更,出各种各样的教程,包括所谓的“邪修”大法,隔着屏幕都能感受到他们那像发现宝藏般的兴奋。
Nano Banana是Google最新推出的图像模型&编辑模型Gemini 2.5 Flash Image。最早它藏在一个叫LMArena的“模型比武场”里,还是隐藏卡池,得靠“抽卡”才能体验。
但因为抽中概率低,想体验的人又多,甚至有大佬因此研究了能提高抽中几率的“邪修”方法,比如在上传的照片后面垫透明图。
那时的Nano Banana就已经小有名气,而且被玩出了很多花样,主打就是一个能把各种平面图生成一整套摆在桌上的手办模型图片,图片中还包括桌上的包装盒和显示着模型的电脑屏幕,看上去就像是摆拍了一个真的放在桌面上的手办。
![]()
●图片来源:小红书用户@麦兜_Meadow:)
比如,有网友上传了自己的宠物照片生成了一个同款手办摆在桌上的图片。是的,这张图中,除了那张小狗照片是真的,其他都是Nano Banana生成的,这立体程度,很逼真吧。而且还很快,一般十几秒一个。
也都符合它的官方宣传点——
1.SOTA图像生成和编辑;
2.难以置信的角色一致性;
3.快如闪电。
8 月 26 日,Nano Banana终于正式上线,旋即引爆 。说实话,除了各个为之疯狂的 AI 博主,最近就连我的社交媒体上,也到处都是别人晒出的手办图。Nano Banana也算是破圈了。
而我,作为一个正对乙女向恋爱手游《恋与深空》上头的新晋玩家,Nano Banana太让我心动了,首先我就要用它做个秦彻(《恋与深空》里的男主之一)的手办!
于是,我的Nano Banana初体验,就从这个痴汉计划开始了。
![]()
火出圈的平面图秒变手办
按照网友推荐,我试过从AI Studio和Flowith上使用,但体验都不如直接去Gemini大模型官网直接用。在网页左上角切换到2.5Flash,输入框处选择image模式,立刻丝滑起飞。最近,Lovart等平台也已经接入了这个模型,入口越来越多。
既然决定要用Nano Banana给秦彻上桌,第一步当然是——上传他的平面图。我选了一张恶龙造型平面图,上传后参考网友提供的提示词模版,简单说就是:“把角色做成立体手办,加上包装盒和建模界面”,然后它说“Just a sec...” 不到半分钟,屏幕上跳出了一张图,如下——
![]()
●Nano Banana生成
我真的是当场“哇”了出来。
衣服褶皱、胸前纹理、头发层次感都很立体,桌面环境和光影也自然。美中不足的是,手办后面的包装盒有点粗糙,还带着点火星文,让我不太理解。
后来我还尝试给秦彻换了两个发型。在左一原图的基础上,输入简单指令“改成长发”“改成浅金色长直发”,就出现了如下图片——
![]()
●Nano Banana生成
人物一致性果然保持得不错。小幅度改动就能出新图,这也难怪有网友锐评“Photoshop岌岌可危”了。
![]()
换装、换人、换景,想怎么换都行
要知道我这个人很朴实的,我得让它来点儿实际的,比如帮我解决个痛点——网购。
老实说,我平时网购最大的痛点就是货不对板,或者说货不对我。尤其是衣服,完全像开盲盒,图片看着不错,一到手就怀疑人生:这颜色适合我吗?这版型适合我吗?怎么穿在身上完全不是我的风格……每次网购衣服都像在赌博。
既然Nano Banana的人物稳定性这么强,还能生成如此立体的图像,我想不如用它帮我试衣服吧:上传全身照+想买的单品图,让它生成穿在我身上的效果图,来个云试穿。
比如我东北基因觉醒,看上了一件大花棉袄,输入指令“将图1(本来是我自己的照片,但我不好意思出镜,这里用模特照片代替)中的上衣换成图2(大花棉袄),其他部分保持不变。”很快,屏幕上就出现了完整穿搭效果——正所谓“穿搭要显贵,基础款就不要再搭基础款......”原本人物身上的西装外套,变成了我提供的大花棉袄,其他部分均未改动。
![]()
●Nano Banana界面
看完生成的效果,我心里大概有数了:整体颜色和版型都很适合我,过年穿它绝对喜气洋洋,这就把它拿下。
哦,对了,还有搭配问题,经常买完一件,发现全身都要跟着换。于是我干脆直接上整套,让Nano Banana把衣服、包、鞋、配饰一起穿戴上,看这套整体造型是否适合我(这里没有没让它帮我搭,都是我自己挑的或者商家搭配,毕竟它不是个穿搭工具,但此时我还挺希望它是的)。
下面是我找的一套穿搭,但效果上似乎出了点问题——只有包和 T 恤两件单品上身,T 恤还被直接套在了模特原本穿着的黑色打底衫外面,我觉得这不像Nano Banana的水平啊。
![]()
●左一原图来自Celine,中间原图来自小红书用户@物屿WUYU,右一为生成图
后来发现是要重新开一个聊天。于是我点击新聊天重头再来,这次就很不错了。
![]()
●Nano Banana生成
左图是第一次生成的效果,大体上看,帽子、眼镜、上衣、鞋子都没有问题,但还有很多细节不符合。
我急了。“给你的图片是短款牛仔裤,项链是黑绳的,包带是黑色的,还有耳饰!”又跑了两次图后得到了右图,它还是非常固执地不改成短裤,我放大查看时没有找到耳环,一缩小发现,耳环竟然在左上角挂着,哈哈哈,实在有点好笑。 但也还不错了,以后我网购衣服的时候还是准备先用它帮我试一下的。
除了做手办、试衣服,Nano Banana对普通人来说还有更接地气的整活玩法。比如给照片换人、换景,想换哪里换哪里,你完全可以人在家中躺,但发个朋友圈,佯装自己正在威海跟特朗普吃夜宵。
操作也简单,上传一张两个女生在街边吃夜宵的照片,输入指令“把左边的人换成特朗普”。第一次出的图简直没把我笑死,因为原图里女生穿的是裙子,两个光溜溜的膝盖露在外面,当人物被替换后,也变成了“光腿特朗普”,看上去非常滑稽。后来我还是要求给特朗普穿上了裤子,并把背景换成海边,瞬间就有了一种深夜海景烧烤的氛围。
![]()
●左一原图来自Pinterest
![]()
自带百科全书,还能推理现场
据Nano Banana的模型研究员说,这个模型拥有Gemini世界知识,所以它不仅能生成图,还“懂图”。
于是我做了个小实验:上传了几个景点的图片,让它帮我识别这是什么景点并加入AR视觉的介绍卡片。
![]()
![]()
●Nano Banana生成
可以看到在第一张图片中,Nano Banana准确标注了国家大剧院等三个标签,并且标签里的描述内容也是对的。第二张图的建筑多一些,标签的落点位置会出现一些小偏差。
我是个爱旅行的人,感觉这个功能或许能帮我成为一个旅行博主哎!(当然,旅行博主可不是这么好当的,我懂)但如果在旅行时拍摄 Vlog,然后把这些AR卡片丢到视频软件里,做出带讲解的沉浸镜头,肯定很有意思。
更酷的是,网友们还发掘出了Nano Banana的视觉推理能力。
比如,X博主@Simon在地图中标注出红色箭头,问它在这个方向能看到什么?Nano Banana 便生成了该方向的真实世界景观。
![]()
●图片来源:X博主@Simon
Simon还给了它一张绘制了等高线的地形图,它便绘制出了站在红色圆圈所在地看向箭头所指位置的真实场景,真是厉害。
![]()
●图片来源:X博主@Simon
所以,Nano Banana不只是会生图、画图,它还能识别出图里有哪些元素,并在此基础上结合世界知识做二次创作。
不过,如之前所见,Nano Banana也非尽善尽美,比如生成AR卡片时图像清晰度会下降,卡片标签描述里的文字可能变形,箭头所指地点和实际地标场景也可能偏差。但我想说,瑕不掩瑜吧。
![]()
与FLUX、豆包的对比
Nano Banana一上线,口碑直追之前刷屏的Flux Kontext ,甚至有过之而无不及。
两者都主打的是人物一致性。之前Flux Kontext是这个领域的王者,它能保证同一个人,从不同角度、不同造型画出来都还是那个人。但Nano Banana上线后,很多用户倒戈,说这才是最一致的。
此外,两者在这方面还有一些操作门槛上的不同,用Flux Kontext出好效果,得研究复杂的工作流,像我这种普通用户,直接用网页生成,效果往往没那么稳,还得靠别人调好的预设。
相比之下,Nano Banana的优势就是上手成本低。不需要我去学习一堆插件和参数,直接对话就能出图改图,还能多轮互动,边出图边调整。
所以,Flux更像是设计师的工具,Nano Banana更像是大众用户的Photoshop替代品。
在生图这个领域,还不得不提起在国内拥有大量用户的豆包,作为字节系产品,生态绑定好,在剪映、飞书这些场景里能直接用。而且作为国产大模型,支持中文语境,非常方便。但生成的图像有较浓的AI 味儿,尤其在人脸细节和一致性上不够自然。
如果拿人群来分的话:豆包适合效率党,比如职场人要做个商品展示图、汇报封面,用它足够了;Nano Banana更适合有创作欲的人,比如博主、手办玩家、旅游达人,能折腾出花样;Flux则是专业向,设计师、插画师用它能跑出很酷的作品,但门槛高。
一句话总结:Flux是“效果派”,追求画面质感,但门槛高;豆包是“效率派”,方便接入各种场景,但效果打折;Nano Banana是“全能派”,既能玩花活,又够接地气,上手门槛低,还带理解广度和视觉质量的加成。
但无一例外,再强大的模型,也不是一键完美,输入和提示词还是很重要的。
![]()
重塑边界
作为一个普通受众,在试用Nano Banana过程中,我最直观的感受就是:Nano Banana的玩法更新速度比我刷短视频换频道还快。今天大家还在试“平面图秒变手办”,明天就有人把它玩成“Nano Banana+Lovart组合出道”,直接冲进家装赛道。
比如AI博主@歸藏(guizang.ai)找了7张家具的照片,并用Lovart里的Magic Canvas画了简单的家具位置示意图,然后让Nano Banana把家具们放入房间的指定位置。
这要是在以前,只是画个示意图就得费一顿牛劲,但现在直接在Lovart的Magic Canvas左边的画框打字就行,简单粗暴。从Nano Banana生成的结果来看,所有家具的位置都摆对了,每个家具的细节也都与原图一致。以后装修的时候,都能自己做效果图了。
![]()
●图片来源:AI博主@歸藏(guizang.ai)
另外,还有人用Nano Banana给任意建筑转换成等距风格的图标;
![]()
●图片来源:AI博主@歸藏(guizang.ai)
或者只是像画火柴人一样,手绘个动作示意图,然后再上传任意一个人物图像,让Nano Banana把后者中的人物动作变成前面手绘图的样子,它也能做到,这玩儿法还挺有意思的;
![]()
●图片来源:微信公众号@数字生命卡兹克
还有哦,给它两个图像,它还能给你生成多张分镜图片,也就是说可以拿它做漫画哎。
![]()
●图片来源:AI博主@歸藏(guizang.ai)
Nano Banana的玩儿法实在太多了,还在有用户不断探索。
感觉只要我离线半天,再上网就得补作业。这也说明,这类生成模型正在迅速从“炫技工具”变成“日常工具”,并不断被用户重塑使用边界。
而在热闹之外,负责这个模型的DeepMind研究员在播客里聊到未来展望时,提到了两条主线:Smartness(更聪明)与Factuality(更靠谱)。
一方面要让模型更聪明,懂得帮你补全没说清楚的指令;另一方面也要更靠谱,特别是在图表、流程图这些“又要好看又要准确”的场景里,避免瞎编。
他们还提到未来可能会做个“自动化个人审美打分器”,让模型慢慢学会你的审美偏好。也就是说,Nano Banana的潜力还远没到头。而我们现在看到的花样百出的玩法,也许只是起点。
![]()
撰文 | 杜雪莹
编辑 | 巴芮
封面图源 | AI生成
![]()
![]()
![]()
你想用Nano Banana来做什么呢?
![]()
![]()
![]()
本文来自微信公众号“未来人类实验室”,作者:杜雪莹,36氪经授权发布。