作为一家立志推动建筑行业数字化转型的数据企业,Matterport正式宣布与荷兰皇家航空公司(KLM)建立合作关系。KLM是法航-荷航集团的成员,同时也是天合联盟航空公司联盟成员,服务遍及全球各地。目前,KLM已经为90个欧洲城市及70个洲际目的地的航班机型建立Matterprot数字孪生副本。此外,KLM还使用Matterport技术培训地勤人员,为客户提供身临其境的虚拟体验。截至目前,KLM的数字孪生副本已经被地勤人员、空乘人员、飞行员及旅客访问近100万次。
KLM虚拟现实专家Chris Koomen表示,“Matterport数字孪生已经彻底改变了我们的员工培训方式;而且随着时间推移,我们将进一步扩大使用范畴、同时鼓励客户也参与进来。数字孪生已经成为业务体系中不可或缺的重要组成部分,我们经常使用数字孪生副本开展便于业务培训。它不仅让清洁人员的工作效率更高,也让空乘人员有机会提前了解飞机布局,更帮助飞行员能够在安全检查期间通过数字孪生副本熟悉业务。通过远程访问这些副本,学员不必干扰飞机的维护工作,使得机群能够更快恢复最佳飞机状态。所有这一切,都提高了KLM的整体运营效率。”
KLM的Matterport体验始于2017年,当时他们为波音787 Dreamliner飞机创建了第一套数字孪生模型,主要用于培训地勤人员如何高效清洁机内卫生。在发现工作人员的清洁时间缩短了30%之后,KLM果断意识到Matterport数字孪生在增强培训效果方面的惊人潜力,并决定利用Matterport进一步为其他机型建立数字孪生。如今,KLM已经拥有一套包含104个数字孪生模型的机型库,总浏览量已接近100万次,具体涵盖波音、空客、巴西航空工业等厂商的共14种机型。空乘人员也在利用Matterport数字孪生副本熟悉安全和服务物品的存放位置,地勤人员则参考副本中的注释信息加快了准备工作的学习速度。而且一旦发现异常,飞行员还可以在起飞前的安全检查期间随时参考飞机的数字孪生副本。
之前,KLM的培训工作主要集中在阿姆斯特丹的史基浦机场。但现在,员工们可以直接使用沉浸式的数字孪生副本,这不仅消除了舟车劳顿之苦、也避免了培训对设备维护造成的影响。如此一来,飞机能够快速恢复最佳状态、减少回库时长。另外,KLM的数字孪生也有助于简化机群管理。例如,在对特定机型上的Wi-Fi路由器进行升级时,KLM就使用数字孪生副本中的高精度数据测试了部署结果,并据此优化出新的路由器摆放位置。
除了内部培训工作之外,KLM也不失时机地利用数字孪生向旅客展示其机舱布局。乘客可以提前进行虚拟体验,比较并选择最适合自己的座位。截至目前,KLM的波音Dreamliner数字孪生副本已经获得70000多次浏览,让更多乘客提前感受到了商务舱的隐私保护与娱乐配置体验。
Matterport公司旅游与酒店全球战略主管Bill Linehan在评论数字孪生技术时表示,“随着运营行业的不断自我重塑,业务总量和运营效率都在持续提升。KLM等航空公司已经证明了数字化战略的推进能够给客户以及组织自身带来巨大价值。通过在整个机群内使用Matterport技术,KLM建立起先进、丰富且真正身临其境的培训场景,外加一流的维护流程和引人入胜的客户体验。我们也期待着数字孪生技术能在KLM的未来经营中,继续带来振奋人心的其他提升。”
好文章,需要你的鼓励
美光发布新款2600客户端QLC固态硬盘,采用自适应写入技术动态优化缓存,使QLC闪存达到TLC级写入性能。该技术通过顶层SLC缓存处理新写入数据,二级TLC缓存应对SLC满载情况,空闲时将数据迁移至QLC模式。硬盘无DRAM设计,采用Phison四通道控制器和美光276层3D NAND,提供512GB至2TB容量选择,相比竞品QLC和TLC固态硬盘,顺序写入速度提升63%,随机写入速度提升49%。
澳大利亚堪培拉大学研究团队首次发现AI在调试代码时存在"疲劳"现象,调试能力会按指数衰减规律急剧下降。研究提出了调试衰减指数(DDI)评估框架,能预测AI调试的最佳干预时机。通过战略性重启方法,在合适时机让AI重新开始,可显著提升调试成功率而无需额外计算资源,为AI编程工具的优化使用提供了科学指导。
在AMD AI推进大会上,CEO苏姿丰展示了公司在AI硬件和软件方面的显著进展。新一代MI350系列GPU性能提升4倍,高端MI355X在内存、计算吞吐量和性价比方面均优于英伟达B200。公司计划2026年推出Helios机架级平台,ROCm 7推理性能提升3.5倍。尽管在GPU训练、TCO优势等方面表现良好,但在NIMs微服务、企业级GPU市场渗透等领域仍需加强,以进一步缩小与英伟达的差距。
Cohere Labs研究团队提出了一种革命性的多语言AI优化方法,无需重新训练模型即可显著提升非英语语言的表现。通过"多重采样+智能选择"策略,让AI生成多个候选答案后选出最优回应。实验显示该方法让8B参数小模型在多语言任务上挑战大型商业模型,平均性能提升6.8-17.3个百分点,为AI多语言应用开辟了高效可行的新路径。