普通视图

发现新文章,点击刷新页面。
昨天以前首页

中国 AI 视频赛道最大单笔融资,为什么给了爱诗科技

作者 李超凡
2026年3月13日 10:00


APPSO 获悉,爱诗科技近日完成 3 亿美元 C 轮融资,创下国内 AI 视频生成赛道单笔融资的最高纪录。

领投方鼎晖香港基金联合鼎晖 VGC、鼎晖百孚重金押注;产业资本中国儒意、三七互娱紧随入场;国内政府引导基金、险资、家族办公室,还有 UOB Venture Management、Lion X 基金。参投名单横跨两个半球,不同领域的资本默契涌向了同一个方向。

3 亿美元融资放在当下 AI 行业似乎没有什么好惊讶的,这还不到 OpenAI 融资的零头。但你得把这个数字放进 AI 视频赛道的坐标系里看:成立于 2018 年的 Runway,花了七年才在上个月完成 3.15 亿美元的 E 轮融资。而爱诗科技从种子轮走到同等量级的 C 轮,只用了不到三年。

A 轮,达晨财智领投,蚂蚁集团跟进;B 轮,阿里巴巴领投逾 6000 万美元,彼时已是国内视频生成赛道最大的一笔钱;C 轮,3 亿美元,纪录再次被自己改写。

每一轮都有新的顶级机构首次入场,每一轮金额都在翻倍。节奏越来越快,筹码越押越重

实际上,这笔融资反映出的信号大于数字本身:AI 视频不再是大模型叙事的配角,资本已经把它当作一条独立的、值得重仓的赛道来押注

爱诗科技创始人王长虎曾在 2024 年表示,视频生成一定是被低估的。爱诗科技用不到三年时间,将这个非共识变成了资本共识。

非共识的起点:2023 年,为什么是视频

「我不会创业,但没关系,创业就是边做边学。」2023 年 4 月,爱诗科技创始人王长虎决定创业时,就是带着这句话出门的。

2023 年 4 月,爱诗科技创始人王长虎带着一个在当时看起来相当「偏科」的判断出来:当所有人都在追大语言模型,他要押注视频生成。

要知道一年之后 OpenAI 的 Sora 才正式亮相,可以想象当时王长虎这个选择有多么反常识。

在微软亚洲研究院待了 8 年、在字节跳动做了 4 年 AI Lab 总监之后,王长虎比大多数人更清楚视频 AI 的技术节奏。「2023 年初很多人都不认同做视频这件事,大家都在看大语言模型,」他后来回忆,「但这就有了非共识:我们觉得视频生成是大事,而我们过去在视频和 AI 方面有经验,能赢在全球。」

这个判断在当时要承受不小的压力。相比语言模型,视频生成的算力消耗更大,生成质量更难控制,产品化路径也更模糊。早期的投资人需要相信的,不是现在能看到什么,而是三年后那张尚未成型的蓝图。

2024 年 3 月,达晨财智率先领投 A1 轮,完成了第一次押注。随后一个月,蚂蚁集团以逾 1 亿元人民币跟投,是彼时国内 AI 视频领域单笔最大机构投资。至此,爱诗科技基本完成了从「技术方向」到「资本方向」的验证。

王长虎在创业之初就明确了愿景:「帮助每个人成为生活的导演」。海外产品 PixVerse 和国内产品拍我 AI,都是在这个方向上的落地——前者于 2024 年 1 月上线,后者于 2025 年 6 月推出,两款产品针对不同市场独立运营。

DiT 架构:那个没人看好的选择

要理解这笔 3 亿美元的 C 轮,需要先看懂爱诗科技的技术路线。

把爱诗科技的技术路线从头捋一遍,会发现 DiT(Diffusion Transformer)架构这个选择,是整个故事的原点,也是很多结果的前提。

2023 年,国内主流视频生成方案普遍采用 U-Net 架构。这也没问题,U-Net 经过了图像生成领域多年实践的充分验证,稳定、成熟,调参经验相对成熟,可以较快地跑出效果。对大多数想先做出来再说的团队,这是理所当然的选择。

可以爱诗科技选了 DiT,成为国内首家将这一架构用于视频生成的创业公司

DiT 是 Diffusion(扩散模型)与 Transformer 的组合架构。Transformer 的核心优势在于注意力机制(Attention Mechanism)——它让模型在处理数据时,能够同时「感知」序列中任意位置的信息,而不是像卷积网络那样只能处理局部区域。

对于视频生成这个任务来说,这种能力的价值是决定性的:视频的本质是时间轴上的连续帧,每一帧的内容与上下帧存在复杂的时空依赖关系。人物的动作要连贯,物体的运动轨迹要符合物理规律,光影变化要在跨帧时保持一致——这些要求,需要模型能够捕捉「跨帧的长程时空关联」,而这正是 Transformer 天然擅长的事。

但这个选择在 2023 年要付出不小代价:DiT 在训练初期对算力和数据量的要求更高,起步阶段几乎必然要经历「效果不如成熟 U-Net」的阵痛期。对一家刚起步的创业公司,这是不小的风险,钱可能在效果变好之前就烧完了。

事实证明,这个判断是对的。2024 年 Sora 发布时,OpenAI 公开的技术路线正是 DiT。在视频生成这个方向上,DiT 架构确实是更接近正确答案的那条路。

当 Sora 发布时,爱诗已经在 DiT 架构上积累了一年多的训练经验、数据处理流程、工程优化方案。这种时间差,在技术迭代速度极快的 AI 领域,十分关键。

模型产品两手抓,被低估的核心逻辑

在 AI 视频领域,大多数公司的做法是先把模型训练好,再去想产品怎么做。这是一条看起来稳妥的路,模型成熟了,产品化的风险就小得多。

但这种路线有个致命问题:等模型「训练好」的时候,你已经错过了最关键的反馈窗口。用户真正需要什么样的生成效果?哪些场景的需求最强烈?模型应该在哪些维度上优先优化?这些问题,只有产品跑起来、用户用起来,才能得到真实答案。

爱诗从一开始就把模型训练和产品迭代放在同一个循环里。

PixVerse 网页版 2024 年 1 月上线时,模型还远未到「完美」状态,但产品已经可以让用户生成视频、给出反馈。每一个版本的模型升级,都直接来自上一个版本用户的真实使用数据,哪些 Prompt 成功率低、哪些特效最受欢迎、哪些场景容易出错,这些信号实时回流到训练流程,指导下一轮模型优化的方向。

更重要的是,这种模型-产品的协同进化,会随着时间推移形成复利效应:用户越多,反馈越密集,模型优化越精准,产品体验越好,又吸引更多用户——这是一个正向飞轮,而不是单向的技术推进。

「这就是创业公司的优势所在,没那么复杂,所以效率高,」爱诗联合创始人谢旭璋说。这句话听起来轻描淡写,但背后是对技术路线、产品节奏、组织能力的高度整合。大厂可以投入更多算力、更大团队,但很难做到这种模型与产品的深度结合,流程太长,部门太多,反馈链条一旦拉长,速度优势就会被稀释。

这种效率优势最终体现在成本结构上。谢旭璋在接受晚点采访时透露,爱诗「平均每月用的训练资源不到千卡,成本大概只有同行的 10%」。

这是一种结构性的成本优势,而不是靠压缩预算换来的短期节省。用谢旭璋的话说,模型架构、算法、工程、产品能力的综合优势

当模型优化方向始终贴着真实需求在走,就能减少在错误的方向上浪费算力;产品反馈能实时指导训练策略,每一次迭代的投入产出比都会更高。

从 2024 年 1 月 PixVerse 网页版正式上线,到 2026 年初 V5.6 发布,爱诗科技连续更新 8 个主要版本,平均每两个月就有一次大的模型升级。

这种迭代密度的背后,正是模型与产品一起训练的方法论在起作用:

  • V2(2024 年 7 月):多段视频生成与局部重绘笔刷上线,用户从单纯「生成一段」开始走向「编辑与创作」;
  • V3(2024 年 10 月):特效模式上线,「抽卡概率」从随机提升至接近确定性,这是 PixVerse 从创作工具迈向大众产品的真正节点;
  • V3.5(2024 年 12 月):生成时间压缩至 10 秒内,极大降低用户等待成本;
  • V4(2025 年初):「准实时生成」能力出现,5-7 秒生成 5 秒视频;
  • V4.5(2025 年 5 月):参数量与训练数据集指数级扩张,全球用户达 6000 万;
  • 拍我AI (2025 年 6 月):PixVerse 国内版「拍我AI」发布,同步上线网页端及移动端应用;
  • V5(2025 年 8 月):Agent 创作助手上线,用户不再需要学习 Prompt 语法,口语化意图自动转化为模型指令,API 生态同步开放;
  • V5.5(2025 年 12 月):「分镜 + 音频」一键生成,国内首次实现画面与声音的同步协同,完整叙事能力成型;
  • V5.6 (2026 年 1 月 26 日 ):模态大模型,支持分镜和音画同步生成。

在权威 AI 评估机构 Artificial Analysis 最新发布的视频生成模型排行榜中, PixVerse V5.6 位列全球第 2 位,持续领跑全球视频生成模型第一梯队。


这种迭代密度在 AI 视频行业里相当罕见,爱诗跟很多同类产品的策略不同:持续往前推,每一版解决真实用户在当下遇到的真实问题,同时在架构层面为下一次跃升保留余量

背后的可行性,恰恰是 DiT 架构的可扩展性所赋予的,每次模型升级,不需要推倒底层重来,而是在既有基础上加宽加深。

3 亿美元,押注不只是 AI 视频

但鼎晖最终决定领投这次 C 轮,押注的不只是 V5 的榜单排名,可能还有 2026 年 1 月刚刚发布的 PixVerse R1。

R1 可以说是爱诗科技迄今最激进的一次产品技术迭代。

过去的视频生成,无论做得多精致,本质上都是「把指令翻译成一段视频文件」,是一次性的、离线的渲染过程。用户输入指令,等待生成,拿走一段固定的视频文件。这像是在冲洗胶卷,你拍完就拍完了,要等冲洗出来才能看,看完也无法再改。

R1 不是这个逻辑,它不再只是「生成一段视频」,是一个能实时响应用户交互指令的「世界模型」:用户可以在视频播放中输入指令,改变光影、替换背景、控制角色走向,系统响应延迟约 2 秒,输出为 1080P 超高清实时视频流。

背后依赖的是爱诗自研的「瞬时响应引擎(IRE)」,它将计算步骤从数十步压缩至 1-4 步,实现从「离线渲染」到「实时交互」的重要升级。

谢旭璋判断,未来视频和游戏的边界一定会越来越模糊。一旦视频变得能交互了,全新的内容、用户和创作机会就会涌现。

谢旭璋在采访中透露,R1 发布后,游戏行业的 B 端客户来得最多,「以后的游戏开发不用再像过去那样熬漫长的大周期了,无论是玩法、画面还是剧情,AI 都能让它变得更轻量、更具想象力。更重要的是,它能帮那些不懂代码但有创意的人,把点子变成真正的游戏。」

R1 的潜在价值,已经超出了「更好的视频生成工具」这个范畴。如果说 PixVerse V5 是在争视频生成工具的头部位置,R1 是在定义是一个完全不同的品类——实时交互式内容体验的操作系统。它的竞争对手,不再是 Runway 或可灵,是 Unity、Unreal Engine,甚至是尚未出现的内容消费形态

回看爱诗科技这笔 C 轮的投资人结构,其实本身就是一个信号。

鼎晖三支基金联合领投,背后是对这家公司进入规模化阶段的系统性判断。产业资本中国儒意(影视内容)和三七互娱(游戏)的入场,指向了 R1 要重构两个行业:互动影视制作和 AI 原生游戏开发。

进入 2026 年,整个 AI 视频赛道也在加速进入下半场。前有 Seedance 2.0 风靡全球,现在爱诗科技成为新的独角兽。

目前,PixVerse 全球注册用户突破 1 亿,MAU 超过 1600 万;国内版拍我 AI 与 PixVerse 形成双轨并行格局;爱诗科技也是 2025 年联合国「人工智能向善全球峰会」上唯一入选的中国 AI 视频应用,并于同年正式加入联合国大学全球人工智能网络。

这笔 3 亿美元融资,可以理解为资本对一个即将到来的时代的投票。AI 视频的下一个战场,不在参数量,不在榜单排名,关键在于谁先把视频从一个「消费品」变成一个「交互界面」

不过,知道技术路线在哪里会拐弯,和相信这条路最终走得通,是两件事。

在 AI 这个行业,「选对了方向」本身并不稀缺。稀缺的是,在方向被主流认可之前那段空白期里,有没有足够具体、足够扎实的东西,支撑你不摇摆

三年里爱诗科技在这条路线没有在中途断裂,很难说是提前预见了终点的全知视角,而是每走一步,下一步的方向都从上一步的技术现实中自然长出来。

视频正在从被观看的内容,变成被触碰的世界。因此,这三亿美元所押注,远不止 AI 视频的未来,而是那个「」万物皆可交互」的时代。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

实测即梦 Seedance 2.0:老外急着想注册,这就是中国 AI 视频的「黑神话」时刻

作者 张子豪
2026年2月11日 17:57

「来自中国的 Seedance 2.0 将成为最先进的技术。」

「这就是人工智能,我们完蛋了。」

▲在 X 上,多名 AI 视频创作者表示,Seedance 2.0 的表现相当出色

最近这几天,无论是抖音微信视频号,还是国外的 X 社交媒体等,Seedance 2.0 生成的 AI 视频都像病毒一样在传播。

除了一反常态的,是海外网友在找 +86 号码,注册即梦;还有大量的网友发帖子找攻略,在那些 AI 视频的评论区,都在求体验教程。更有甚者,说是倒卖即梦积分两天赚了 8000 多美元。

▲大量海外网友发 X 求一枚体验码,想尽办法能上即梦

Seedance 2.0 究竟能做把 AI 视频做成什么样?

轻松复刻人生切割术第一集里,从电梯出来到走廊的复杂运镜;还有自制一部超级大片,武打动作拳拳到肉;各种广告的 TVC 宣传片,液态玻璃效果都能拿捏;甚至还能说相声、演小品,春晚导演这回自己做主……

▲由字节自研视频生成模型 Seedance 2.0 生成,来源:X@qhgy / 抖音@虚妄

从简单的视频一致性,到复杂的高难度运镜,还有强大的创意模板功能、更准确和真实的音色、配合视频内容的音乐卡点,Seedance 2.0 这次几乎是把 AI 视频可能会遇到的问题,统统解决了。

APPSO 也在即梦里测试了一波最新的 Seedance 2.0 模型,只能说网友的反应都是真情实感,要好的提示词要抽卡也是存在的,但每一次生成的 AI 视频都太真实了。

▲ 即梦 AI 官网地址:https://jimeng.jianying.com/ai-tool/generate

目前,在即梦官网,登录之后选择视频生成,就能使用字节自研视频生成模型 Seedance 2.0。

这一次,我们真的在指挥 AI 拍电影

选择 Seedance 2.0 模型,使用全能参考模式之后,光是看能输入的文件,就知道这次的升级不简单。

字节视频生成模型 Seedance 2.0 彻底打破了大多数模型存在的输入限制,以前的文本+首帧,或者是首尾帧都显得过时了。现在的 Seedance 2.0 把创作逻辑从头打造了一遍,支持图像、视频、音频、文本四种模态的自由组合。

一张图,可以是用来定下画面的美术风格,也可以作为视频的关键帧;一段视频,能直接复刻角色的动作和各种复杂的运镜;几秒音频,直接带起节奏和氛围;最后再加上一句提示词,串联起我们的所有想象。

▲字节自研视频生成模型 Seedance 2.0 支持上传的文件上限是 12 个,图片最高 9 张,视频和音频文件都是最多 3 个,且总视频/音频长度不能超过 15s;生成时长可以选择 4-15s,不同时长消耗积分不同。

使用的方式也很简单,Seedance 2.0 目前支持「首尾帧」和「全能参考」入口,智能多帧和主体参考模式暂不支持。一般来说,我们只需要选择「全能参考」和模型「Seedance 2.0」,之后上传完所有的素材,官网提示尽可能把对最终生成视频影响较大的素材放在前面。

▲ 也可以直接点击输入框下方的 @ 按钮来选择使用不同的素材文件

接着,在提示词输入框里,通过 @ 直接调用对应的素材,串联成合理的提示词,然后等它「造梦」。我们不再需要绞尽脑汁去想「怎么描述这个动作/氛围/运镜/配乐/……」,只需要 @ 一下把它指给模型看。

如果说多模态输入解决了「怎么说」的问题,那模型内部的参考能力就是解决了「说什么」的问题。有了强大的深度视频参考能力,我们也生成了一些其他模型做不到的 AI 视频。

一打十,十八般武艺直接复制

以前想让 AI 模仿某个电影片段的名场面,我们得在提示词里面写「环绕镜头」、「快速切换」、这类专业术语,涉及到具体的武打动作,更是要化身武术指导,每一个动作怎么进行都要在提示词里面写清楚,结果还不一定对。

现在直接上传参考内容,AI 不仅能理解画面的整体风格,捕捉到角色细节;还能识别镜头语言、动作节奏、甚至创意特效,然后精准复刻。

▲将@视频1中的双人换成@图片1的两个机器人,场景维持@图片1,参考@视频1的运镜和转场效果,利用镜头匹配两人的武打动作,极致的舞台美感,增强视觉冲击力

这里我们使用了 Seedance 2.0 使用手册内一段 10s 的打斗,然后告诉模型将视频中的两个人物动作,复制成我们上传的两个机器人。

最后生成的效果,完美复刻了视频动作,宇树和波士顿动力也能来一场酣畅淋漓的 PK,这不比前段时间微博之夜那表演的机器人强。

▲上传的视频和图片,以及使用的提示词

这些最终呈现的 AI 动作,完全修复了以前的模型,走路像飘,打架像软面条的问题。现在的 Seedance 2.0,就是一个懂物理,懂重力,懂惯性的模型,动作衔接更顺滑自然,也不再有那种诡异的「AI 感」。

拍摄现场最难的镜头,现在只要上传参考

除了能还原角色细节和动作,单纯的复刻运镜,Seedance 2.0 更是完全不在话下。以前那些难搞的电影级运镜、创意特效,现在同样是只需要上传参考视频,模型就能精准「照着拍」。

▲参考@视频1的运镜,用@图片1复刻这段视频

我们上传了一段苹果 F1 狂飙赛车的片段,和一张小米 SU7 Ultra 的图片。Seedance 2.0 能直接明白我的意图,把这张图片转成一个像 F1 开场的空拍镜头,再到聚焦 SU7 Ultra 的跟随镜头,一镜到底全过程,说这是大片一点都不过分吧。

这种镜头连贯性极强的一镜到底能力,还特别适合用来做这种舞蹈大片。我们从使用手册里找了一段 15s 的舞蹈视频,然后上传一张美美的自拍照。只是一次生成,完全没抽卡,就得到了这样一段音乐卡点、运镜自然的独舞视频。

▲将@视频1中的女生换成身穿蒙古族服饰的@图片1,场景在一个精美的舞台上,参考@视频1的运镜和转场效果,利用镜头匹配人物的动作,极致的舞台美感,增强视觉冲击力。

去年 Google Veo 3 视频模型火起来的时候,第一人称视角穿越讲述历史是当时的热门玩法,现在的 Seedance 2.0,热门玩法多到数不过来。这种结合游戏视角、画面还有角色一致性的视频,像是直接把黑神话悟空搬到了现实。

▲人物的背面参考@图片1,正面参考@图片2,面部细节参考@图片3。人物进入到游戏《黑神话:悟空》中,单挑二郎神杨戬,场景、动作、特效以及音乐音效可以参考@视频1。

更有意思的是,这里我们还使用了音频参考,我们可以上传一段视频,Seedance 2.0 会根据视频音乐的节奏和情绪来控制画面生成,打击的重音对应镜头切换,弦乐的渐强对应着动作的加速。

这也是声音第一次进入视频生成模型的参考,它从一个单独的后期背景音乐,变成了 AI 视频叙事的重要部分。

能参考,一段过年回家大戏也是说来就来

参考能力最大的价值在于解决实际创作问题,而参考能力的显著增强,归功于模型基础能力的提升

我们尝试用一张首帧图片,和平时在其他视频生成模型里面会用到的提示词,丢给 Seedance 2.0,结果同样不出所料。

▲镜头跟拍年轻人 @ 图片 1 的背影。环境是除夕深夜的村道,路灯昏暗,只有风声和行李箱轮子在雪地里艰难拖动的「咕噜」声。他走得很累,停下来搓了搓冻僵的手,哈出一口白气(特写),眼神里透着「终于到了」的疲惫和一丝近乡情怯。
他转过一个弯,镜头随之旋转。远处出现了一扇贴着红对联的大铁门,门缝里透出金黄色的光。此时,远处零星的鞭炮声开始响起。他加快了脚步,推开沉重的铁门。
推开门的瞬间,镜头越过他的肩膀进入院子。满院子都是红灯笼。 一只土狗兴奋地扑上来,紧接着,厨房的门帘被掀开,母亲端着热气腾腾的蒸笼出来,蒸汽瞬间模糊了镜头边缘。 父亲正在挂灯笼,回头看到他,愣了一下;站在梯子上,假装淡定: 「哎?怎么才到?不是说五点吗?」 母亲放下蒸笼,冲过来拍打他身上的雪: 「你个老头子废话真多!——冷不冷?快进屋,刚出锅的肘子!」
镜头不再跟随背影,而是绕到正面,捕捉他的表情。他原本冻得僵硬的脸,被院子里的热气和灯光照亮,眼泪在眼眶里打转,但他却笑了。

除了视频一开始放下行李箱和手提包被直接忽视了,整个过程一镜到底的拍摄,还有角色表情动作的控制。我们只是上传了一张人像视频截图,然后告诉 Seedance 2.0 使用它的背影,它就能直接生成一个有模有样的过年回家短片。

即使丢掉大段的提示词,Seedance 2.0 的创意性和剧情补全能力也得到了进一步的提升。我们直接上传了一张爱乐之城的风格化图片,然后输入提示词,「根据@图片1创作一个歌舞片的欢快视频」。

Seedance 2.0 给我感觉是自己主动上强度,这个舞蹈视频的复杂程度,跟我看冬奥会双人组花样滑冰差不多了,而我的提示词里,没有参考视频,也没有具体动作指引,只是凭借模型自身的创意生成能力,就可以输出一个精彩的歌舞视频。

也有网友发挥自己的脑洞,使用了一些英雄联盟 双城之战第二季的角色,生成了一个 38s 的小短片。

▲由字节自研视频生成模型 Seedance 2.0 生成,来源:X@NACHOS2D_

AI 视频的《黑神话》时刻

字节视频生成模型 Seedance 2.0 惊艳的刷屏的程度,让我恍惚以为回到了 Sora 面世的那个春节。只不过这次,站在舞台中央的视频模型,来自中国。

黑神话制作人冯骥在体验后,在半夜直接表示「AIGC 视频生成的童年时代,正式结束了」,看完前面的实测你会发现,这还真是一个相当客观的评价。

某种程度上,Seedance 2.0 也可以说是 AI 视频的《黑神话》时刻。《黑神话:悟空》证明了中国能做出 3A 游戏,现在 Seedance 2.0 同样在 AI 视频赛道得到了全球的认可。

如果说去年的 Sora 2 是 AI 视频领域的「登月时刻」,那么今天的 Seedance 2.0 就是直接把飞船开到了你家门口,并把钥匙塞进了你手里,让你轻易得到「地表最强」的现货。

Seedance 2.0 没有创造神话,它只是完成了一次扎实的进化。它将视频生成的门槛拉低,同时将控制的上限拉高。在这个节点上,我们无需过度憧憬遥远的未来,而是应该以此为基点,思考如何利用这些日益成熟的工具,去讲述更好的故事。

即梦 Seedance 2.0 的「全能」与「低门槛」,才是这它最有价值的地方。

这或许才是对「Kill the game」最好的注解——它没有结束比赛,而是开启了更大的新游戏。当技术不再是瓶颈,真正的较量将回归到最本质的地方:那些能讲出好故事、拥有独特审美的人,将获得前所未有的杠杆。

▲麦肯锡一份探讨 AI 对电影电视影响的报告,提到 AI 内容可能在五年内重新分配 600 亿美元的内容生态市场|链接:https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/what-ai-could-mean-for-film-and-tv-production-and-the-industrys-future#/

小型工作室和独立创作者能制作高质量内容的机会越来越大,AI 内容 600 亿美元的产业价值将被重新分配。专业和业余的边界正在慢慢模糊,我们开始问自己「该做什么」,而不再问 AI 「能做什么」。

Seedance 这一波的强势,已经让我们看到了比 Sora 2 更强的音视频效果,无论是从真实世界的物理规律、还是角色的细腻情绪和复杂动作,Seedance 2.0 都可以称得上是目前的最优模型。

但当 AI 视频真实到这个程度,Sora 面对的那些问题,Seedance 似乎也变得无法回避。现实是,Seedance 2.0 内测火爆,不少海外创作者都在喊「一码难求」,但也因为生成效果过于逼真,已经引发了不少关于「AI 视频造假」的伦理讨论。

今年 AI 的进化已经让人无所适从,Seedance 2.0 的火爆,肯定也远远超出了即梦的预料,即梦也很快面对这些争议做出了回应。

在 9 号刷屏全网当天,即梦运营在创作者社群内发布了正式通知,宣布暂时限制真人人脸素材的使用和视频生成。目前一些传播的真人案例,也都是在内测第一时间生成的。

▲即梦 AI APP 内出镜功能,在创建 AI 分身之后能创作真人视频

不过,真人想要出镜,在即梦 AI 的 APP 内,使用出镜功能,完成真人校验后,我们就能体验真人 AI 视频生成。

越强大的工具,越需要清晰的使用边界。但此刻,或许在还没有找到完美答案之前,我们能做的,就是先想清楚自己想用这个工具做什么,记录生活、表达创意,还是讲述故事?

如果说杨德昌在《一一》里面说着,「电影发明了以后,我们的生命延长了三倍」,那现在 AI 电影的发明,则更像是开始在重构生命。我们不再满足于延长,每个人都可能成为自己故事的编剧,在无限叙事中探索另一种人生。

Seedance 2.0 开始让这一切变得越来越近,而现在还只是 2026 年的开端。

*文章部分视频播放,可前往微信图文链接预览

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌