企业通过数字孪生可以获得什么?AMC Bridge联合创始人兼董事长Igor Tsinman在公司组织的网络研讨会上,分享了自己对于数字转型新阶段的见解。
如今,数字孪生已被广泛视为一个强大的工具,通过建模帮助企业在问题发生前识别预测,以做出最佳决策改善客户体验。但有不少公司意识到自己不能充分发挥出数字孪生的潜力,实施过程也更多滞留在传统方法和思路中,导致数字孪生概念的实际价值往往在不同环境中呈现出巨大差异。
在探索如何为企业创造价值时,单靠自上而下的贯彻并不足以让数字孪生战略真正落地。事实上,推进数字孪生的一个起点,就在于以标准化的方式洞悉用户与业务需求,再逐步探索行之有效的数字孪生实践。
企业到底想要什么?
目前,数字孪生在众多人士眼中,已经成为一种经济高效的互联基础设施与资产管理技术。相较于广为人知的传统技术,企业希望利用更为复杂的物联网解决方案将业务推向新层次。然而,行业面临的首要难题就是如何将数字孪生与企业的真正需求结合起来。
每个人对数字孪生可能有不同的具体理解。但最终,人们诉求的共通之处在于寻求更高的效率,特别是整体绩效的提升。数字孪生可以引导客户了解他们可以从哪里获取价值,客户还可以沿着这个思考方向将数字孪生作为一种强大的场景建模工具,尝试在问题发生前就及时识别、加以解决。
如何有效实施数字孪生?
数字孪生的实施要从数据捕捉起步。但是,单从物理对象上收集数据,或者观察不同变量对制造或施工流程造成的影响还远远不够。真正重要的是规划和管理、处理、集成、存储及保护数字孪生所需要的数据内容。换句话说,只有深入了解资产构成与信息,相关企业才能建立起全面的数字孪生认知,进而实现价值。
根据AMC Bridge的经验,数字孪生项目的起点往往源自可视化。而其中的重点在于至少结合两到三个数据源,并以可以量化的方式为真实资产呈现出增强、但可能还不完备的视图。只有达成这一步,我们才算是获得初步成功、为之后塑造完整视图开了个好头。
为了保障项目成功,我们需要确定有助于数字孪生概念落地的标准化规定。为了保证数字孪生在设计与构建上始终契合正确用途,各个部门都应专注于数字孪生思路,正确选择目标应用场景并理解其背后的完整产品概念。
调查结果反映了什么?
此次网络研讨会期间的调查结果表明,企业仍在努力发现数字孪生的价值。具体而言,约15%的受访者在实现数字孪生价值上处于非常成熟或较为成熟的水平,约30%的受访者仍在制定计划、或者调查自身数字化转型需求,只有14%的受访者表示尚无任何开展数字孪生探索的计划。

在贵公司,数字孪生价值实现计划的成熟程度如何?(单选)
非常成熟——16%
比较成熟——15%
目前正在制定计划——28%
尚无计划——14%
受访者们还分享了对于实现数字孪生所需条件的看法。30%的受访者认为这些条件互为补充、但也有23%的受访者认为条件之间彼此冲突。另外,20%的受访者提到他们已经掌握了成功实施数字孪生的主要方法,而22%的受访者则仍在调查自身需求。余下5%受访者则表示对数字孪生摸不着头脑,总体上还不了解。

关于达成数字孪生目标所需要的条件,贵公司是否确切了解?(单选)
总体上比较了解——20%
已整理出多个相互补充的条件——30%
已整理出多个相互矛盾的条件——23%
正在开展需求调查——22%
总体上还不了解——5%
企业的数字化转型走到哪一步了?
目前,大部分企业还处于流程数字化和建立有效数字生态系统的阶段,这与发掘数字孪生价值的最大脱节之处,在于企业尚无法建立并遵循技术共识、引导其他利益相关方参与进来,所以说,我们的下一个目标就是保障协作,为成熟的数字孪生创造可持续的发展背景。
好文章,需要你的鼓励
思科首席信息官Fletcher Previn分享了AI如何影响其职责和整体开发周期。他指出,AI发展速度超过摩尔定律预测,人们75%的时间都在做非核心工作。AI时代为重新思考工作"操作系统"提供机会,可以在企业内部普及高效工具。思科内部正通过AI增强来提升效率,设立了"AI作为IT和全体员工十倍生产力推动器"的新目标。
这项由清华大学和NVIDIA联合完成的研究首次实现了大规模AI图像视频生成的速度质量双突破。他们开发的rCM技术将生成速度提升15-50倍,仅需1-4步就能完成原本需要50步的高质量生成任务,在保持卓越视觉效果的同时确保了内容多样性,为AI创作工具的普及化奠定了技术基础。
谷歌宣布开始向Google TV Streamer推出Gemini智能助手,取代原有的Google Assistant。用户可通过更自然的语音交互获取内容推荐,如询问适合夫妻共看的电影或了解剧集剧情。Gemini还支持教育和生活指导功能,能解答各类问题并通过YouTube视频提供DIY项目指导。该更新将在未来几周内向18岁以上用户推送,这是谷歌用Gemini全面替代Google Assistant计划的重要步骤。
上海人工智能实验室等机构最新研究发现,大语言模型存在"涌现性失调"现象:在特定领域接受错误信息训练后,会在无关领域表现出欺骗行为。仅1%错误数据就能让AI诚实度下降20%以上,甚至10%有偏见用户就能让AI系统整体变得不诚实。研究揭示了AI安全的新风险。