阅读视图

发现新文章,点击刷新页面。

首发实测|期待已久的HappyHorse 1.0,在千问能免费体验了

那个一度在 Artifical Analysis 的 AI 视频竞技场排行榜中登顶第一的视频生成模型 HappyHorse 1.0,我们终于能用官方版了,现在打开千问 APP 和千问创作Web端( c.qianwen.com ),直接就能用,甚至还有免费体验额度。

前段时间,一款名为 HappyHorse 1.0 的视频生成模型,悄然登顶权威 AI 评测平台 Artifical Analysis 的 AI 视频竞技场排行榜,引发社交媒体的纷纷议论。直到阿里正式认领 HappyHorse,谜团揭开,这匹快乐小马出自自家新成立不到一个月的 ATH 事业群。

今天,阿里公布了 HappyHorse 1.0 的体验渠道,千问官方首发灰测,千问 APP 和千问创作Web端都能直接使用。

移动端(千问 APP),我们只需将千问更新到最新版本,通过点击首页的「HappyHorse」胶囊,即可直接进入 HappyHorse 1.0 的生视频创作面板,并且千问还赠送了免费体验额度。

PC 网页版(千问创作 Web 端),针对有更专业创作需求的用户,可以通过浏览器打开 c.qianwen.com 登录使用。网页端每次生成消耗积分,综合对比下来,还是比较具有性价比的。

无论是文生视频还是图生视频,均支持最高 1080p 的视频分辨率。我们可以自由选择 16:9、9:16 或是 1:1 的视频宽高比,生成时长可选 5 秒、10 秒或15 秒,并且支持原生生成音频。

APPSO 第一时间拿到了体验资格,评测榜单的排名能说明结果,但是 HappyHorse 1.0 生成的视频,到底有什么优点,一起来看看我们的实测。

通过实测,能看到其实 HappyHorse 1.0 并没有在复杂的全能参考选项上做文章,而是将核心发力点放在了动作、声音、空间的自然度上,加上合理的镜头语言,和风格的准确还原,整体表现确实惊艳。

用一句指令,直接搞定运镜和故事板

大部分的主流视频模型,都会把镜头运动当做一个库,给用户来调用。所谓的镜头运动,更像是从这些库里,推进、拉远、旋转,随机挑一个运镜方式,并没有配合画面里正在发生的事情。

而镜头感作为视频最重要的一部分,往往一眼就能感受到明显的差距,但它本身又很难用具体数值来量化。

HappyHorse 1.0 的处理方式也表现得可圈可点,切换镜头的时机必须是服务于作品。情绪需要收紧的地方,镜头近一点;需要交代环境的地方,给我们全景;背后是一套有叙事逻辑的调度。

同样一个提示词,丢给多个模型生成的视频画面,可能都会偏向「固定机位」,人物站在中间,缺乏镜头调度。因为这样最不容易出错,但是给视频的观感又大打折扣。

HappyHorse 1.0 在生成的视频里,则是像一个懂行的摄影指导,各种大师级运镜,从全景到近距离跟拍马蹄的扬尘,再流畅切换到低角度仰拍拔枪的瞬间。

它打破了传统的 AI 视频生成模型「为了稳妥而选择平庸」的安全构图,用大量扎实的镜头调度,把这段追逐戏的动态张力,原原本本地拍了出来。

情绪和动作都有了层次感,微表情也能演戏

对于很多视频模型,人物动作是最难解决的问题。即便使用详细的参考生成,到了后半段还是容易出现变形,比如手指多一根、脸部模糊或者动作节奏突变。

但 HappyHorse 1.0 在这个硬指标上表现非常稳定,一段 5 秒的视频,人物动作从头到尾基本保持连贯,穿帮的频率明显更低。

举个具体的例子,我们用的提示词是一个穿着白色裙子的女生走在花海里,从画面的左边走到右边,镜头跟随,女生转动裙子,捧起一朵花闻。

HappyHorse 1.0 给的动作过渡非常自然,女孩在花丛中走路完全没有那些「太空步」的滑移,从她转动裙摆,到捧起花朵凑近鼻子,整个动作流程行云流水。

动作有层次感,人物的表情同样真实。我们生成了一个小朋友咬下酸柠檬的视频,从咬下柠檬的瞬间,到强烈的酸味,开始带来面部肌肉紧绷、五官皱起、紧闭双眼,再到酸劲儿逐渐过去,面部肌肉慢慢放松,最后茫然地重新睁大眼睛。

通过动作和表情,让人物的情绪更有层次感,HappyHorse 1.0 生成视频也更不容易让人出戏。

官方数据显示,HappyHorse 1.0 的内部 GSB(Good-Significant-Bad 人类偏好评分)是 Wan2.7 的 3 倍,动作流畅性和清晰度都进步明显。

对话听起来更像真人,环境音也开始参与叙事

除了画面表现,HappyHorse 在 AI 视频配音上的表现也比其他模型更出色。

大部分的 AI 视频配音,都有一个很难绕开的问题:听上去像在「念」,不像在「说」。

语气是平的,语调不跟着情绪走,两个人对话的时候,一方说话,另一方就在那里等着,没有反应,没有表情变化,像两个人在分别完成自己的任务。

HappyHorse 1.0 在这里的处理,是对白真的有情境感。语气和语调贴着画面里的情绪,惊讶的时候语调是对的,轻松的时候节奏是松的。多人对话的场景里,听的那一方也是自然,会有表情,有细微的肌肉反应,不是在发呆等下一句。

环境音也是一样的逻辑。书写声、翻页声、远处的背景音,这些细节在大多数视频模型里是缺席的,或者听上去是从音效库里随机抓来的。

HappyHorse 1.0 里,这些声音跟画面里正在发生的事情是对得上的,而且能参与情绪。在安静的场景里,出现一点纸张摩擦声,或许比大多数配乐都更容易让人有沉浸感。

还有一个比较小众但实用的能力:多语言的唇形同步,覆盖了普通话、粤语、英语、日语、韩语、德语、法语等语言。

输入中文文本生成人物说话的视频,嘴型就能跟上语音。这个能力的想象空间相当大,从短视频配音到虚拟主播,未来都会用得上。

不需要复杂的风格提示词,轻松拿捏经典影视剧风格

如果说前面关于镜头、动作和声音几点解决的是 AI 视频的硬件问题,即 AI 视频不能让人出戏;风格的还原,则是让最后的画面更有戏。它会开始用色彩、光影和质感,去建立属于创作者的美学氛围。

风格的添加也很讲究,不是套一层滤镜,或者一个打包好的 LUT 包,它也需要视频模型对不同美学风格的了解,以应用合适的风格化。

HappyHorse 1.0 在特定风格的还原上,细节非常扎实。各类经典影视剧的风格、老港片里胶片的颗粒感和偏冷的高光,我们在实测的生成结果里面都能看到。

无论是老水浒/三国画风那种粗粝写实的历史厚重感、光影迷离的经典港风,还是强调高反差冷峻光影的美剧质感、主打细腻柔光的韩剧氛围,它都能精准拿捏。

如果你是个对画面质感有追求的创作者,非常推荐去千问里亲自感受一下这种「导演级」的美学控制力。

AI 视频赛道需要一匹黑马

告别了动辄半天的视频生成排队,一个 Video Arena 榜单第一的模型,现在不仅直接放到了手机 App 里随手可用,还给了免费体验额度,千问这波实在是给力。

回头看 HappyHorse 1.0的这几个特点,动作不穿帮、镜头有语言感,解决了 AI 内容质量的可预期性,让我们不用再抱着「抽卡」的心态,去体验 AI 视频生成。

对白自然、真实的环境音、还有精准的风格化还原,更是让我们和创作者少了大量的后期修补成本,不需要在多个工具之间来回倒腾。

如果把这种极低门槛、高容错率的生成能力放到具体的商业语境中,价值是显而易见的。

对于新媒体运营、短剧导演或是电商营销团队而言,过去需要庞大后期团队和高昂拍摄预算才能完成的分镜预演、概念设计或视觉短片,现在只需在手机或电脑上输入指令就能快速落地。在千问里,一个人就是一支高效的视听制作团队。

▲现在我们在千问里,就能得到一段真实的虚拟主播视频

过去一段时间,视频生成赛道的竞争逻辑是「谁的模型更强」——更高的分辨率、更长的时长、更复杂的物理模拟。

拼的是参数和算法的技术竞赛,但我们真正卡住的地方很少是因为「模型做不到」,大多数时候是「做到了但用不起或用不到」,等待时间太长、声画要分开处理、动作稳不稳全靠运气,每一个环节的摩擦都在把视频生成挡在专业用户和 AI 超级创作者之外。

而这一次,千问不仅省去了我们在不同工具之间切换的折腾,把最顶级的视频生成能力直接放到了最熟悉的对话框里,更借助底层模型的实力,把这些创作摩擦一个个彻底抹平了。

千问现在是工作、学习、生活和创作中全能 AI 助手

HappyHorse 无疑是一匹强劲的黑马,他是阿里新成立的 ATH 事业群,在模型能力、平台分发、具体应用这条完整链条上的一块关键拼图;在千问首发灰测后,链条开始跑起来了。

从帮助用户解决日常问题、提升工作学习效率的文本对话,到如今整合了极高水准的 AI 生图与视频能力,千问的进化路径已经非常清晰:它正在打破「生活提效」与「专业创作」的壁垒。

通过一次次的功能迭代,千问正将顶级的算力平民化,真正从一个简单的问答工具,蜕变为一个覆盖用户全场景的「全能型 AI 助手」。

作为普通人,我们或许不需要关心背后复杂的算法架构,因为最好的技术,已经通过千问以最顺滑的方式装进了你的手机里。

现在,轮到大家上场了。

如果你也想体验 HappyHorse 1.0 强大的视频生成能力,千问还同步开启了「天马行空」挑战赛。一共四大 AIGC 视频赛道,20 万现金奖池等大家来拿。

直接前往千问 App 或千问创作 Web 端,用灵感在这个没有门槛的新画布上,真正「天马行空」一次。

*文章内视频播放可点击该链接预览*

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

一句话,AI 直接给我建了个能跑能跳的「吉卜力」3D小镇

这周的大模型热点除了 Anthropic 刚刚发布的 Opus 4.7,世界模型成了另一块角力的阵地。

短短几天内,AI 圈几乎是连珠炮式地发布了一系列重磅世界模型。

先是李飞飞的 World Labs 开源了 Spark 2.0,紧接着腾讯在昨天正式发布并开源了混元 3D 世界模型 2.0(HY-World 2.0)。

▲腾讯混元 3D 世界模型 2.0 体验地址:https://3d.hunyuan.tencent.com/sceneTo3D

阿里也马不停蹄,新成立的 ATH 旗下创新事业部团队,刚刚才官宣了 HappyHorse,立刻又发布世界模型 HappyOyster。

▲阿里 HappyOyster 官网截图:https://www.happyoyster.cn/

最容易忽略的还有英伟达 Lyra 2.0,没有发布会和新闻稿,旗下的空间智能实验室直接甩出一篇论文,「可探索的生成式 3D 世界。」

▲英伟达研究博客:https://research.nvidia.com/labs/sil/projects/lyra2/

这种密集程度让人产生一种错觉,那些生图生视频模型是不是都弱爆了。现在的 AI 已经从「生成一张图、一段视频」的平面阶段,大步来到「构建一个世界」的 3D 空间时代。

不仅技术端在狂飙,资本市场也给出了强烈的回应。

今天,群核科技正式登陆港交所。这家空间智能公司一直致力于推动 AI 进入物理世界。它的成功上市,标志着「世界模型第一股」的正式诞生,也向外界释放了一个明确信号:世界模型,真的开始火了。

而在热闹之余,我们也发现虽然这些公司都叫世界模型,但是路线完全不同,只能生成视频的像是一个 Demo 产品;能生成 3D 资产的看似可以融入开发设计的工作流;还有在论文里的未来工作畅想,希望用于机器人的训练。

目前,腾讯混元 3D 世界模型 2.0 已经开放了申请。我们第一时间进去体验了一波,试图从中找到一个答案:这些被认为是 AI 下一阶段的世界模型,到底能解决真实世界的哪些问题?

从看电影到开始游戏

此前我们聊世界模型,大多像在聊一个「更长、更懂物理规律、一致性保持更强的视频」。但这次体验混元 2.0,最直接的冲击力在于,它生成的不再是 MP4,而是真正的 3D 资产文件。

在体验中,我用简单的提示词输入了「吉卜力风格的山间小镇,黄昏」。在几分钟的计算后,出现在屏幕上的画面像是一个大世界游戏。

点击下载,混元 3D 提供了全景图、Splats 的 .spz 文件和 .ply 文件,以及 Collider mesh 一共四种 3D 资产文件格式。

四种文件类型涵盖了 Mesh(三角面片网格)、3DGS(3D 高斯泼溅)、点云等多种格式的 3D 资产文件,这些文件可以直接导入 Unity、Unreal Engine,游戏开发者拿到手之后可以继续编辑、调整、搭建关卡。

▲所生成的世界同样可以保存为全景图片,原图约 20MB。

在世界生成任务上,除了常见的文生世界,混元 3D 同样支持图生世界。我们找了一张《拯救计划》电影截图,Rocky 最后在波江座人给他搭建的世界里漫步,让混元来还原整个波江座。

▲由于电影截图里就有显示一个外壳包围着 Rocky 居住的海边,所以混元生成的世界也有一块「黑影」

当使用 Unsplash 上下载的高清雪山图片时,混元 3D 世界模型 2.0 生成的雪景,画质和真实感都更强。

▲全景图和导演模式下的角色漫游

无论是上传图片还是文字提示词,应用内都有相关的指引,例如上传的图片分辨率不能小于 512*512,避免画面出现人物,不要有动物/人物特写,避免使用纯色、纯纹理图片;以及天空、星空等画面占比较大图片也不适合等。

而文本提示词,最好是场景类别(沙漠、海面、房间等)+ 场景特征(物体、天空等视觉描述)+ 风格(可选,卡通/写实/油画风格等)。

混元 3D 世界模型 2.0 的风格化控制表现也很好,从官网已有的世界案例能看到,无论是温馨的绘本风还是写实的游戏风,它对语义的解析非常精准;墙壁的纹理、地牢的阴影和光感都极具沉浸感。

除了能生成可用的 3D 资产,混元 2.0 真正让我感到「世界」属性的,是它的角色模式。

现在我们可以直接操控一个角色在刚刚生成的场景里行走、加速、跳跃、转弯、探索,整个过程就像是在玩一个大世界游戏。同时,它自带物理碰撞,角色不会穿墙而过,也不会掉出地图边缘。

这种即刻生成、即刻可玩的体验,确实在模糊了 AI 生成与游戏引擎之间的边界,随着能生成世界的范围不断扩大,角色的探索或许会更有意思。

实时生世界时,我们能直接控制角色的行动,混元 3D 模型会自动生成对应的世界,单次生成的时长是一分钟。

对比之前的混元 3D 模型,这次的 2.0 版本在一句话/一张图生世界任务上,不仅支持下载 3D 资产文件,推出了全新的角色模式,而且在画面精细度和真实感方面,也从底层的模型架构进行了重新设计。

▲混元世界模型 2.0 多模态世界架构|https://3d-models.hunyuan.tencent.com/world/

新的模型架构,打通了「理解、生成、重建」的闭环。

  • HY-Pano-2.0: 不需要专业的相机参数,普通图片就能映射出 360° 全景。
  • 空间 Agent 技术: 像给 AI 装上了导航,它能智能规划漫游轨迹,确保护理和视觉上的衔接不会穿帮。
  • HY-WorldMirror 2.0: 保证了即使是在大幅度的视角变换下,物体侧面和背面的完整度依然在线。

在世界重建任务上,混元世界模型 2.0 输入多张图或视频流,就能做到重建真实场景。

在过去,我们想要构建/重建一个可互动的 3D 世界,需要成体系的团队和数月的打磨;而现在,通过混元 2.0 这样的工具,只需要一个创意。

并且,这个创意,无论是以文字、图片还是视频的形式呈现,它都可以生成一个拖进 Unity 的原型,哪怕质量还需要调整,哪怕很多细节还要人工修改,但整个设计的工作流,AI 也开始在发力了。

疯狂的世界模型周,疯狂的 AI

当我们再把视线从混元 3D 世界模型 2.0 的资产生成、角色模式、世界重建,拉回本周连发的其他几个世界模型,我们会发现,这些不同在不同维度突围的世界模型,正共同拼凑出世界模型更明确的样子。

阿里 HappyOyster 目前还在主打漫游和导演模式,让我们用自然语言随时介入世界演化,改写剧情走向和角色动作。

英伟达 Lyra 2.0 用一张图就能生成长达 90 米的连贯 3D 环境,它生成的场景甚至能直接丢进 Isaac Sim 给机器人做物理训练。

李飞飞 Spark 2.0 打通「交付最后一公里」,前面那些模型都在解决怎么造世界,而 Spark 2.0 已经开始解决怎么给人看。它通过独创的流式加载和虚拟内存技术,把上亿个 3DGS 粒子的超大世界,硬生生塞进了普通手机的网页浏览器里。

▲World Lab 生成界面,提示词:吉卜力风格的山间小镇,黄昏

看着这些各显神通的世界模型界面,一个现实的结论是:很明显,世界模型还没迎来它的 ChatGPT 时刻。

四家公司这一周的密集发布更像是在为这个时刻做准备,画面质量、交互能力、资产格式、交付方式、仿真精度,每个都在朝着自己的方向优化。但把这些块拼成一个「让普通人愿意每天打开」的产品,还没有模型做到。

在过去两年里,随着 AI Coding 重塑代码开发、Nano Banana 等模型颠覆平面设计,前端工程师和平面设计师们已经经历了「xxx is DEAD」。现在,这朵雪花大概是要飘到 3D 设计的护城河上。

随着更多模型厂商的下场,3D 设计的工作流也会慢慢从 AI 辅助走向 AI 主导。到那时,生成并体验一个 3D 互动世界,将会像今天我们在手机上刷短视频一样流畅、低成本且理所当然。

毕竟,在所有的科幻叙事里,没有任何人会抗拒自己成为「造物主」,去自定义一个新世界。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

独家|阿里认领屠榜神秘模型「欢乐马」,ATH 郑波团队打造

刚刚,阿里巴巴 ATH 确认 HappyHorse 为阿里 ATH 旗下创新事业部研发。

前段时间网友们一直在猜测的神秘视频生成模型 HappyHorse,正式在微博介绍自己,来自阿里 ATH 创新事业部的内测产品,目前尚未上线,网上流传的「官网」都不是真的。

阿里巴巴 ATH 方面表示:HappyHorse 是阿里 ATH 旗下创新事业部研发的模型,目前正处于内测中,也会于近期开放 API。

ATH 创新事业部已启动一个 AI 时代的全新交互方式探索计划,HappyHorse 是这个探索方向的一部分,更多的产品我们会陆续推出。

APPSO 独家获悉,负责此次 HappyHorse 视频生成模型的是来自阿里 ATH 的郑波团队。

郑波是阿里巴巴副总裁,清华大学计算机系博士,2006 年到 2017 年,领导谷歌的展示广告算法团队以及中国地图团队。

他在 2017 年 9 月加入阿里巴巴,曾担任淘宝搜推算法负责人、阿里妈妈 CTO、淘天集团算法技术负责人,主要研究方向为大模型,多模态,决策智能,深度学习,搜索、推荐和广告算法以及引擎优化等领域。

本周三,HappyHorse-1.0 视频生成模型突然出现在 AI 评测平台 Artificial Analysis 的视频竞技场榜单上,以压倒性的表现登顶文生视频、图生视频等多个赛道,直接超越前段时间大火的 Seedance 2.0。

网友们都在猜测 HappyHorse 究竟是哪一家模型厂商的作品,一些山寨的「快乐马」网站也开始在社交媒体上传播,声称可以提供模型访问权限。

直到今天,HappyHorse 通过官方微博账号 HappyHorse_AI 正式发文,确认是由阿里 ATH 创新事业部研发。

AI 评测平台 Artificial Analysis 也在阿里确认这一消息后,在 X 平台迅速发文,表示 HappyHorse-1.0 目前已经在视频竞技场的所有排行榜上都取得了第 1 或第 2 名的好成绩。

在平台「无音频」排行榜上,HappyHorse-1.0 稳居第一;「有音频」排行榜中,它的 Elo 分数几乎与字节的 Seedance 2.0 完全相同。

Artificial Analysis 还提到 HappyHorse-1.0 支持四种视频生成模式:文本转视频、图像转视频,每种模式均可选择是否添加原生音频,而 API 接口计划于 4 月 30 日开放。

在这则推文下,Artificial Analysis 给出了多个 HappyHorse 视频生成的实例。

通过与Seedance 2.0、Kling 3.0 Pro、grok-video-imagine 和 PixVerse V6 的对比,我们能看到 HappyHorse 这匹突然杀出来的黑马,潜力确实不小。

▲提示词:一部皮克斯风格的短片,讲述一个紧张兮兮的小交通锥梦想成为大型比赛的终点线标志杆的故事。

▲提示词:一个篮球在空荡荡的室内球场上弹跳,每一次拍打在光滑的硬木地板上都会发出响亮而有节奏的回声,并伴有橡胶运动鞋的尖锐吱嘎声。

▲提示词:一束手电筒光束探索着一个洞穴系统,照亮了潮湿的石灰岩地层。光线捕捉到闪闪发光的结晶方解石沉积物。当光束穿过浅浅的积水时,在水下地面上投射出明亮的光影图案。节奏的回声,并伴有橡胶运动鞋的尖锐吱嘎声。

▲提示词:一个可爱的小蝙蝠侠,有着巨大的头、小小的身体和大大的眼睛,看起来很可爱而不是可怕。

在阿里今天正式宣布之前,前阿里千问大模型负责人林俊旸昨天就在 X 转发了关于 HappyHorse 的消息,附文「happy horse is insanely happy」。评论区当时就有人在猜测,看来 HappyHorse 可能是千问的视频模型。

阿里这段时间以来,关于 AI 的调整相当频繁。

3 月 16 日,阿里巴巴正式成立 Alibaba Token Hub「ATH」事业群,由 CEO 吴泳铭直接负责,ATH 覆盖了通义实验室、MaaS 业务线、千问事业部、悟空事业部、AI 创新事业部,几乎把阿里现有 AI 关键拼图全部装进了一个框架里。

4 月 8 日,CEO 吴泳铭发布全员信,再宣布 AI 相关组织的重大调整,成立集团技术委员会,原通义实验室升级为通义大模型事业部。

短短 23 天,完成了两次 AI 组织架构的调整。

HappyHorse 模型的推出,大概能看到阿里 AI 战略的主线,会不断地从模型能力,到平台分发,再到具体应用,都要争做第一,实现完整的闭环。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌