阅读视图

发现新文章,点击刷新页面。

数字孪生项目效率翻倍!AI技术实测与场景验证实录​

引言

AIGC技术正以天为单位刷新认知。从ChatGPT、Midjourney到Sora,生成式AI浪潮一浪高过一浪,数字孪生行业也不例外——如今的技术论坛,不提AIGC仿佛就落伍了。

当前,AIGC在数字孪生领域的应用正逐步深入,但由于数字孪生对精度、数据和可靠性要求高,这与AIGC固有的"概率生成"特性之间存在矛盾。因此,核心问题并非技术是否适用,而在于如何找到AIGC能落地的价值环节。

本文以Mapmost智慧收费站项目为例,探讨AIGC在真实场景中可实现的应用点:

结合AIGC流程的Mapmost智慧收费站应用

01 建模AI辅助:设备建模效率提升

初期尝试文本生成模型时,纯文本输入如开盲盒,同一设备多次生成结果差异大返工成本高。转为图像输入(尤其是多视角照片)后,模型一致性结构比例明显改善。部分AIGC三维模型生成工具已具备组件拆分功能,但实际使用下来,这类工具对角色模型的理解比设备类模型更成熟。

混元3DStudio组件拆分

车辆、摄像头、道闸等原本需大半天手工建模的设备,现几分钟即可生成可用模型。

使用HYPER3D生成的摄像头模型

使用腾讯混元3D生成的车模型

Mapmost智慧收费站项目中,这一点帮我们省了大功夫。项目需要大量不同类型的车辆模型来模拟收费流程,如果纯手工做,光是车型变化就要折腾好几天。用AI生成后,几分钟就能出一辆结构完整的车,样式、颜色还能根据场景需求调整

智慧收费站项目中使用AI生成的汽车模型

02 纹理AI增强:一键优化材质清晰度

数字孪生中,纹理质量直接影响场景真实感,但高清纹理获取往往比建模更困难。AI图像增强工具通过超分辨率算法,可提升低清纹理的清晰度、锐利边缘和材质真实感,将“能用”的纹理变为“好用”的纹理。

Mapmost智慧收费站项目中,实景三维模型手工精模需要衔接顺畅,但两者的纹理都来源于现场拍摄的照片,清晰度参差不齐。手工模型的材质细节不足,质感层级与实景模型对不上,放在同一场景中视觉差异明显。

使用AI增强纹理清晰度

用AI工具增强后,纹理的边缘细节和材质质感都被拉到了同一水平线。两种模型的视觉差异被有效抹平,融合起来的场景不再"各说各话",整体观感更统一,客户现场演示时的沉浸感也提升了好几个档次。

Mapmost智慧收费站融合手工精模与倾斜数据的效果

03 视频AI生成:静态截图秒变动效演示

项目汇报阶段,**“讲明白”“做出来”**同样关键。视频生成AI能根据初始画面和目标画面,自动生成5–10秒的过渡动画,在系统未完全就绪时,快速制作演示素材,使汇报从“凭想象”变为“看得见”

在Mapmost项目前期汇报中,利用该功能快速生成收费站鸟瞰漫游视频,直观展示收费站布局与重点区域。

项目前期使用即梦AI生成的汇报素材

04 Mapmost未来工作流全面升级

未来,智能技术将在数字孪生领域释放更多可能,不止于建模、纹理和视频生成,更能深入理解场景、精准匹配业务需求

对Mapmost来说,这些能力将被无缝融入我们的工作流,让项目实施更快、成本更低,把更多精力聚焦在真正的业务创新与价值创造上——让智慧城市和数字孪生的落地,变得更简单、更高效。

立即体验,开始三维开发之旅!

👉 点击访问官网免费试用:Mapmost官网

【高斯泼溅】当3DGS遇上传统模型:从“画在一起”到“画得对”的全攻略​

在真实场景重建、数字孪生与新一代三维表达体系中,3DGS正迅速成为不可忽视的技术方向。凭借在细节保真度、重建效率和真实感上的优势,它让传统基于三维精模、倾斜摄影和网格建模的表达方式,首次在“真实还原”层面显得力不从心。

城市场景-3DGS与倾斜融合

但在真实的工程系统中,几乎不存在只依赖3DGS的完整方案。结构化几何、可交互对象、业务逻辑以及语义与属性承载,仍然高度依赖成熟稳定的传统三维模型体系。工程实践的主流路径,也始终是扩展既有模型应用,而非用3DGS全面替代。

因此,一个关键问题随之出现:能否将3DGS与传统三维模型放在同一场景中协同渲染?

答案是肯定的:但难点并不在“能不能画”,而在于是否画得正确、稳定具备长期工程可维护性。因为3DGS与传统模型,本质上代表的是两套截然不同的空间假设与渲染哲学,它们的融合,更像是一场发生在渲染架构层级的正面碰撞,而非简单的技术拼接。

坐标体系的碰撞

在3DGS与传统三维模型的融合中,坐标体系是最先出问题、也最容易被忽视的一环。

3DGS通常来自COLMAP、Nerfstudio等重建流程,本质上工作在以相机群为中心的局部空间中:

  • 原点无语义
  • 轴向不固定
  • 单位虽多为米,但不保证遵循Y-up/Z-up规范

而传统三维模型恰恰相反,它们始终运行在语义明确、规则稳定的世界坐标系统里,原点、轴向、单位与左右手规则都是系统级前提。

如果在数据阶段没有完成严格的坐标对齐,就将两者直接放入同一场景,漂浮、倾斜、比例失真几乎不可避免。
在shader中“临时掰正”画面,或许能骗过Demo,但在多模型、多数据源的工程系统里只会迅速失控。

坐标问题必须在数据阶段解决,而不是在渲染阶段掩盖。
只有当3DGS与传统模型真正共享同一个World Space,后续关于深度、遮挡与排序的问题才值得继续讨论。

深度与遮挡的摩擦

在坐标体系统一之后,第二个必然遇到的问题是深度关系

在传统的模型渲染中,这个问题几乎不需要开发者关心:

  • 模型是不透明的
  • GPU会自动记录每个像素的“距离”
  • 近的物体自然遮住远的物体

这套机制就是我们常说的深度缓冲(Depth Buffer)。

如果简单地将3D Gaussian Splatting当作普通透明物体插入渲染队列,在实际场景中很容易出现一系列问题:

  • 穿模
  • 悬浮
  • 遮挡关系错误

这并不是参数没调好,而是渲染路径本身就不成立。

因此通常会将传统三维模型与3DGS拆分为不同的渲染阶段:

  • 先渲染传统三维模型中的不透明几何
  • 完整写入深度缓冲
  • 为场景建立稳定、可信的几何结构
  • 再渲染3DGS
  • 仅读取深度信息

这种策略的核心思想是:几何先行,真实细节后置。结构由Mesh决定,真实感由3DGS补充,而不是相互竞争深度主导权。

排序的难点

如果说深度测试是传统三维模型世界能够成立的根本规则,那么在融合渲染体系中,排序几乎决定了3DGS是否还是真正的3D

传统三维模型面对的是拓扑明确、数量有限的几何体,可见性主要依赖深度测试即可稳定解决;即便存在透明物体,也只是少量对象的顺序调整,问题规模始终可控。

而3DGS面对的是海量半透明高斯椭球
每一个splat都参与颜色与透明度累积,渲染结果对绘制顺序高度敏感,顺序不再是优化项,而是正确性本身。

任何试图让3DGS服从传统renderOrder、或直接塞进透明队列的方案,都会在规模和正确性上同时失效,

最终表现为:

  • 体积层次错乱
  • 远近反转
  • 画面发灰
  • 甚至“糊成一团”

因此,在可落地的工程实践中,3DGS必须被视为与传统三维模型并行的渲染体系,而非从属关系:
传统模型继续依赖深度测试,负责建立稳定、可信的空间结构;
3DGS则必须拥有独立的排序体系,在GPU上通过视空间深度、分桶排序或层级裁剪等方式解决自身的可见性问题。

两者只在最终合成阶段以受控方式交互,例如基于深度进行裁剪或遮挡判断,而不是共享同一个透明队列。
只有在这种关系下,3DGS才能呈现出连续、可信的体积感,而不是退化为失序的点云效果。

Mapmost的实现

Mapmost的技术体系中,强调在数据阶段完成坐标体系统一,通过稳定的几何深度计算为3DGS提供可靠的遮挡基础,并采用独立的排序与LOD策略保障大规模场景下的渲染稳定性。

使用Mapmost SDK for WebGL,可实现3DGS与倾斜模型、通用三维模型的融合表达,满足智慧园区、智慧交通等数字孪生应用开发需求。

3DGS与倾斜融合加载效果

申请试用,请至Mapmost官网联系客服

Mapmost 3DGS Builder在线体验版已上线~

欢迎体验: studio.mapmost.com/3dgs

❌