Dener Motorsport是保时捷首届南美单一品牌锦标赛的生产商,该公司使用微软Fabric Real-Time Intelligence,将赛车数据传输给工程师以优化预测性维护。
在一年一度的巴西保时捷卡雷拉杯比赛中,数据对于确保车手安全和维持赛车的最佳性能起到了至关重要的作用。以前,获取和分析重要数据是一件很费力的事情,可能需要几个小时,而且只有在比赛结束后才能完成。

巴西保时捷杯运营总监Enzo Morrone(如图)表示,如今在微软Fabric的帮助下,他和他的工程师团队在比赛期间就可以实时访问这些数据,一切都发生改变了。
Morrone表示:“我可以看到其中一些传感器的值什么时候超出了标准。过去,我们曾发生过车手没有注意到一些警报继续行驶汽车直至起火的事件,这种事不会再发生了,因为现在我可以打电话告诉他立即停止。”
保时捷卡雷拉杯是一项在世界各地举办的赛事,仅使用保时捷的911 GT3 Cup(992型)高性能赛车,在巴西,该赛事是由Dener Motorsport运营的。和很多其他由多个车队和制造商组成的赛事不同,巴西保时捷卡雷拉杯会提供并维护比赛中使用的全部75辆赛车。车手们穿着赛车服和头盔抵达,但除此之外,驾驶的汽车也以同样的方式进行调校,唯一的区别是车手的技能。
Morrone解释说:“我负责保证所有赛车都是一样的,这样获胜的车手就是最好的,我负责培训机械师、工程师和每位车手。”
IT现状
比赛中使用的汽车会产生大量数据:从发动机和变速箱中的传感器到悬架和制动器。
Morrone说:“一切都和设备的健康状况、车手如何处理设备以及驾驶性能有关,如果我不进行预测性维护,如果我必须在活动中进行纠正性维护,那就会浪费很多钱。”
过去为了获取数据,工程师们必须在比赛结束后将USB插入汽车,下载数据并将其上传到Dropbox,然后核心工程团队可以在Dropbox中访问和分析数据,这个过程会持续30分钟到两个小时。
Morrone说:“我需要更快地采取行动,他说,他的IT员工只有一个人,因此他需要寻求帮助。
战略合作关系
2023年7月,Dener Motorsport开始和微软合作,采用微软Fabric实时获取这些数据,特别是使用Fabric组件Synapse Real-Time Analytics进行数据流分析,以及使用Data Activator实时监控和触发操作。近日,在美国西雅图举行的微软Build大会上,微软透露,它已经将这些工作负载合并到实时智能下,因为实时分析仅支持Azure数据。另一方面,实时智能通过支持AWS、Google Cloud Platform、Kafka安装和本地安装中的数据来进一步实现这一点。
微软Azure Data企业副总裁Arun Ulagaratchagan表示:“我们推出了Real-Time Hub,就像[Microsoft Fabric中的逻辑数据湖]OneLake数据中心一样,Real-Time Hub会自动向您显示Fabric中存在的所有实时源。您可以监控数据并根据数据采取行动,还可以设置阈值。”
Dener和Microsoft及其合作伙伴BlueShift合作开发需求并处理数据,共同建立了一个核心架构,让该公司可以在此基础上发展工程能力,并最终支持娱乐和广播功能,这仍然在Morrone的路线图上。
他们首先需要的东西之一,就是可以接入汽车以收集和传输数据的物联网设备。他们与Ituran MOB合作,后者开发和制造了一套硬件和软件解决方案,用于车队管理、被盗车辆追回、汽车连接和基于性能的保险需求,其设备可通过感应方式插入CAN总线电缆。
工程师现在可以使用EventStreams以每秒钟为单位从每辆车中获取数据,使用Eventhouse进行分析,并将数据分发给车队经理和比赛参与者。因此,Morrone和他的工程师不再需要依赖车手读取仪表板上的指示器并传递信息。他还表示,现在他们可以在大多数问题演变成严重问题之前就发现这些问题。练习和排位赛之间的间隔不超过一个小时,这样的速度可以让工程师和机械师快速诊断和处理问题。
正在进行中的工作
目前,Dener主要是把实时功能用于预测性维护,但Morrone预计,未来会把更多数据交到车手用于做出战略决策,并利用这些数据来推动粉丝参与。
“下一步是与粉丝互动,我们有很多关于车手表现、轮胎压力、轮胎温度、最高速度的数据,以及许多很酷的东西,这些东西用于电视广播中会很棒。”
当前的挑战之一,是用于传输汽车数据的5G网络质量。Morrone指出,在下一场比赛中,他们将测试Azure Private 5G Core,如果可以改善网络质量,他希望能够每秒捕获多达60个数据值。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。