当 AI Agent 走向无处不在,MediaTek 想做的不只是手机芯片

如果说大模型最早带来的冲击,是让用户开始习惯和机器进行自然语言对话,那么 Agent 的下一步,则是让 AI 从「回答问题」走向「完成任务」。它不再只是一个聊天窗口,而是可以理解场景、拆解任务、调用应用、协同设备,并在更长周期里记住用户偏好的系统级能力。
对于许多人来说,AI 是一个 ChatBox,更是一个 AI Agent。
过去,手机、平板、PC、汽车、耳机、手表等设备,更多是在各自的硬件形态和操作系统里提供功能;而在 Agent 普及之后,终端之间的边界会被进一步打散。用户真正需要的,不一定是打开某个 App,完成某个孤立操作,而是在一个连续的生活场景里,让手机、汽车、IoT 设备和云端服务协同起来,主动给出更合适的服务。
过往二三十年的时间里,智能设备的芯片从决定最主要的运算任务,变为决定跑分、功耗、游戏和影像能力的底层硬件,现在,芯片也需要成为 AI 体验的入口、算力底座和生态接口。

这就是 MediaTek 在天玑开发者大会 MDDC 2026 上想要传递的核心信息:一方面通过手机、汽车、IoT 和 AI 基础设施等全栈产品组合,提供覆盖多场景的算力底座;另一方面,则通过天玑 AI 智能体化引擎、AI 开发套件、汽车平台和游戏技术,向开发者开放更多能力。
天玑 AI:从端侧算力,到系统级 Agent OS
在 AI Agent 的落地过程中,手机仍然是最关键的终端之一。
原因并不复杂。手机拥有最密集的用户数据、最高频的使用场景,以及最成熟的应用生态。它既是个人信息的入口,也是跨设备协同的枢纽。因此,当 Agent 从应用层走向系统层,手机很自然会成为智能体化体验的第一现场。
过去三年,天玑 AI 生态圈实现了明显增长:生态伙伴成长量提升至 240%,天玑 AI 开发套件下载量提升至 440%。MediaTek 也提到,智能体自主任务量已经从 2025 年每日 1.2 亿次,增长至 2026 年每日 8.7 亿次,一年增长 7 倍。这些数据至少说明,Agent 已经不再只是概念层面的未来叙事,而是开始进入开发者和用户体验的增长通道。
为了应对这一趋势,MediaTek 在大会上发布了天玑 AI 智能体化引擎 2.0。
相比 1.0 版本更多由用户指令驱动、通过 App 独立执行单一任务,2.0 版本的关键变化在于主动感知驱动。借助天玑 SensingClaw 技术,天玑平台可以提供低功耗的全时感知能力,让设备制造商打造具备主动感知和跨应用驱动能力的 Agent OS。
换句话说,未来的 AI 助手不只是「你说一句,它做一步」,而是能基于视觉、听觉、位置、环境状态等信息,提前理解用户所处的场景,并调动不同应用和设备完成更复杂的任务。

在大会现场,MediaTek 公布了与 OPPO、Xiaomi 和传音的合作案例。
天玑能力将赋能 OPPO 小布助手,打通系统级原生应用数据,并结合小布记忆建立用户专属记忆数据库。它可以完成体检报告解读、自动规划健身计划并导入日历等任务。小米这边,重点放在跨端智慧体验上,用户通过一句指令,即可调用全场景设备执行任务,实现任务在多设备之间的流转。传音则更强调 Always On 主动感知能力,比如 AI 助手可以在免唤醒、自运行的状态下,完成查物流、比价等复杂任务。
三家头部手机品牌的案例其实都在说一件事,AI Agent 不再只是手机里的一个应用,而是正在成为系统层能力的一部分。它既需要芯片端提供足够高的 AI 算力,也需要端侧持续感知能力,还需要隐私、安全和应用生态之间的协同。

开发套件 3.0:让端侧 AI 更容易落地
如果说 AI 智能体化引擎面向的是系统级体验,那么天玑 AI 开发套件 3.0 则是面向开发者的工具箱。芯片平台企业一直强调端侧 AI 的价值:响应速度更快、隐私保护更好、离线能力更强,也能降低对云端资源的依赖。
不过真正把模型放到手机、平板、车机等终端上,并不是简单的「搬运」,开发者往往要面对模型压缩、算子兼容、功耗控制、内存占用、部署效率等一系列工程问题。天玑 AI 开发套件 3.0 正是为此而来。
3.0 版本首先支持 LVM 模型可视化部署,从命令行升级到 GUI 模块化,参数设置可以实时生效,模型部署和调优效率提升 50%。对于很多应用开发者来说,这降低了从模型到终端运行之间的门槛。
新增的 Low Bit 压缩工具包,可以降低生成式 AI 模型压缩过程中的设备内存占用,在相同质量下模型压缩率提升可达 58%。这对于端侧大模型尤其关键,因为终端设备的内存、功耗和散热空间都更加有限。eNPU 开发工具包可以帮助开发者充分发挥天玑芯片中超能效 NPU 的优势,让常驻轻载 AI 模型功耗节省 42%。对于 Always On 感知、语音唤醒、环境识别等场景来说,低功耗比峰值算力更重要。AI 要真正做到随时在线,就必须先解决「一直运行」带来的能耗问题。

天玑 AI Partner 作为一站式模型端侧转换助手。它可以支持模型分析、调整、验证等流程自动化,帮助开发者将原本可能需要 5 天的模型转换工作压缩到半天左右,端侧 LLM 模型部署耗时节省可达 90%。
从这些升级可以看出,MediaTek 并不只是把 AI 算力作为芯片参数来展示,而是在试图补齐开发流程中的关键环节。对于开发者来说,端侧 AI 的真正门槛并不只有「芯片够不够强」,还包括「工具链够不够顺」「模型适配够不够快」「优化成本能不能降下来」。
汽车平台:从智能座舱,到 AI 定义汽车
过去几年,「软件定义汽车」已经成为行业共识。智能座舱、智能驾驶、整车 OTA 和车云服务,让汽车从一个以机械结构为核心的交通工具,变成了持续更新的智能终端。而随着大模型和 Agent 技术进入车内,行业又开始进入「AI 定义汽车」的新阶段。
在 MediaTek 的判断里,汽车正在从单纯的交通工具,进化为懂用户、预测用户需求、无缝融入生活的智慧第三空间。MediaTek 车用平台已经与全球 20 家以上头部车企开展深度合作,在手项目超过 190 个,累计出货量达到 3500 万套,近 5 年出货量增长接近 4 倍。这说明 MediaTek 进入汽车领域并不是从零开始。它把手机芯片平台中积累的性能、能效、连接、影像、AI 和生态经验,迁移到了更长生命周期、更高安全要求的汽车场景中。

在天玑智能座舱方案中,MediaTek 将未来座舱的能力分为几个关键方向:全模态交互、主动式服务、并发指令执行和端云协同。
这与传统车机语音助手有明显差别。过去的语音助手往往是被动响应,用户说一句,它执行一个固定任务;而未来的智能体座舱,需要能识别车内人员、理解环境状态、判断用户意图,并把导航、社交、地图、餐饮、支付等服务串联起来。
比如在大会案例中,工作日早上用户带孩子上车后,系统可以自动识别乘车人员,并主动询问是否需要先送孩子上学再去公司,甚至根据时间推荐顺路买咖啡。这类场景的价值,不在于单点功能有多新,而在于车机从「工具」变成了「上下文理解者」。
要实现这样的体验,底层平台必须解决三类问题。
第一是平台层。车端需要高效运行大参数 AI 模型,还要支持多模型、多任务并行。MediaTek 提到,天玑旗舰座舱平台可以提供最高 400 TOPS 的 AI 算力,并通过软硬协同架构,将 AI 平台需求压缩 90%。在五屏重度渲染场景下,仍可流畅运行双大模型,速度超过 50 token/s。
第二是模型层。汽车的生命周期往往长达 6 到 10 年,但 AI 模型的迭代周期可能只有几个月。如何让车辆在整个使用周期内持续用上新模型,是智能座舱必须解决的问题。天玑座舱 7 系列直接集成 NVIDIA GPU 资源库,支持基于 CUDA 开发的新模型和算法迁移到座舱平台;天玑座舱 S 系列则支持天玑 AI 开发套件,帮助主流模型及其衍生模型更快完成适配。
第三是应用层。天玑软件平台提供场景映射、智能模型加载、端云协同和系统调优等工具。比如端云协同可以在复杂任务需要云端处理时,由端侧先完成需求预处理和筛选,只上传关键 token,在保护隐私的同时降低云端成本。
汽车 AI 并不等于把手机助手搬进车机,车内是一个多用户、多模态、多屏幕、高安全要求的环境。它既要理解驾驶员,也要理解乘客;既要提供娱乐,也要避免干扰驾驶;既要依赖云端能力,也要保证本地响应和隐私安全。因此,汽车 AI 的挑战比手机更复杂,也更考验平台级能力。

游戏技术:移动端正在靠近主机级体验
在 AI 之外,游戏仍然是天玑平台展示性能和生态能力的重要场景。
移动游戏的体验升级,过去主要围绕高帧率、高画质和低功耗展开。现在,随着移动 GPU 能力提升,以及游戏内容向 3A 化发展,移动端开始追求更真实的光影、更精细的模型、更低延迟的音频和更长时间的稳定运行。
本次大会上,MediaTek 重点介绍了 Ray Tracing Pipeline,也就是 RTP 移动端光线追踪技术。与传统光追方案相比,RTP 的目标是跨端适配 PC 与 Mobile 的渲染管线,实时呈现复杂游戏光影效果,包括动态物体、骨骼动画,以及视野外环境和物体反射。

MediaTek 已经与腾讯《三角洲行动》项目组合作预研新的 RTP 技术方案。它的意义在于,如果 PC 端渲染管线可以更顺畅地迁移到移动平台,那么跨端 3A 游戏的开发周期和适配成本都有机会被降低。
另一个重点是虚拟几何体技术。MediaTek 天玑与团结引擎深度适配 Virtual Geometry,依托天玑移动平台 GPU 渲染能力,在移动端环境下实现超过 10 亿级三角面渲染,并在 1.5K 高分辨率下持续输出 1 小时满帧体验。这意味着手机游戏在模型精细度上的限制,有机会进一步被突破。
音频方面,天玑 LE Audio 低延时技术通过全链路优化,在天玑旗舰移动平台上带来 32 ms 的低延迟蓝牙立体声表现。该技术已经在《和平精英》测试服中落地,用于降低音频延迟。对于竞技游戏而言,音频延迟并不是感知层面的微小差异,而可能直接影响玩家对敌方位置和操作节奏的判断。
此外,天玑平台还展示了 GPU Dynamic Cache、天玑倍帧技术 3.0、自适应调控技术 5.0,以及面向安卓游戏开发者的一站式分析和调优工具 Dimensity Profiler 2.0。
GPU Dynamic Cache 架构允许 GPU 同时调度系统缓存和内存,让开发者可以通过系统缓存传输关键游戏数据,节省带宽并降低功耗。目前,该技术已与《逆战:未来》《暗区突围》等游戏合作。
天玑倍帧技术 3.0 则新增 Depth 等选项,可以更好预测并生成高质量虚拟帧,支持 165 帧和 144 帧,也支持 UE、Unity 等引擎插件接入,并覆盖手机、平板和座舱平台。《王者荣耀》可借此解锁 144 帧低功耗体验,《明日方舟:终末地》也获得更高流畅度和更低功耗表现。
自适应调控技术 5.0 新增智能帧控和场景预判功能,可以让芯片、游戏和屏幕之间的信息流动更细。以《鸣潮》为例,合作后 1% low 帧和功耗指标都有明显优化;《和平精英》等游戏也能在重载场景下实现 CPU 和 GPU 负载降低。

这些技术共同说明,移动游戏的优化已经不再是芯片厂商单方面拉高性能,也不是游戏厂商单方面压缩画质,而是软硬件协同越来越深入。芯片、引擎、游戏内容、调优工具和开发流程,都在被重新打通。
MediaTek 还将端侧 AI 引入游戏场景。大会现场公布了天玑 AI Play 与《三角洲行动》的合作成果,借助天玑移动平台的端侧 AI,让游戏内 CC 语音智能伴侣响应更快,相比云端延迟大幅降低 56.7%。这意味着,AI 在游戏中的角色,不只是 NPC 或剧情生成,也可以进入语音交互、实时陪伴、战术辅助等更即时的体验场景。
过去谈移动芯片,行业更习惯讨论 CPU、GPU、NPU、影像 ISP、制程工艺和功耗表现。但在 AI Agent 和多终端协同的趋势下,芯片平台的竞争正在变得更复杂。它既要有足够强的底层算力,也要有开发套件、模型工具、跨端能力、系统接口和合作伙伴网络。
这也是为什么 MediaTek 在大会上反复强调开发者与生态。
AI Agent 的落地不会只由芯片厂商完成,系统厂商需要把 Agent 变成原生能力,应用开发者需要把功能重新智能体化,终端厂商需要解决跨设备流转,汽车厂商需要把 AI 与车内传感器、座舱系统和云端服务结合起来,游戏厂商则需要在高画质、高帧率、低功耗之间找到新的平衡点。
未来用户评价一台手机、一辆车,甚至一个 IoT 设备时,可能不再只看硬件参数,也会看它能不能理解自己、能不能主动完成任务、能不能在不同场景之间自然流转。
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。