Stuart Hughes是劳斯莱斯(Rolls-Royce)的首席信息官和首席数字官,是民用航空航天业务的数字团队的领队。劳斯莱斯制造的发动机常被用于战斗机、公务机和50%以上的长途飞机。
记者在IDG的边缘计算峰会上采访了Hughes,他谈到有关劳斯莱如何利用飞机发动机收集的数据帮助客户更好地计划飞行及将计划付诸执行。
关于物联网和边缘计算怎样改变劳斯莱斯的业务方式
我们的技术形成了我们自己的商业模式,飞机所有者实际上是按发动机飞行小时付费,因此只需按发动机使用时间付费。劳斯莱斯则收钱承担所有的维护、所有的服务和所有的保修内容。实际上,从这个意义上而言,我们是按小时销售功率,而不是按飞机发动机销售。
关于更好地计划飞行和执行计划
我的新加坡团队与新加坡航空公司开展紧密合作,其中一项工作的真正重要的创新部分是推出更省油的飞行计划。
我们为飞行员和运营团队创建了应用程序,帮助他们了解一些用得上的策略。这是件真正的好事情,因为如果他们能够选择正确的策略,考量他们如何起飞和使用多少推力,考量他们的爬升方式和爬升角度,考量他们如何更好地利用风力,考量他们如何从根本上优化发动机,然后就能获得两个真正的大好处。第一,燃料减少了,所以他们支付的燃料就更少了,他们携带的燃料就更少了。第二个好处,当然我们减少了大气中的二氧化碳。
关于发动机层面的个性化服务
我自从来到劳斯莱斯工作后这段期间里出现了一个真正重大的变化,原来是对所有东西都一刀切,也许会更换不需要更换的东西,也许会因为过早地把发动机从机翼上拆下来而影响航空公司和客户,现在就转而以一种更具体、更个性化的方式来考虑问题。
这样做我们就能够考虑飞行员如何驾驶发动机以及环境因素,飞行员飞行的环境以及任务或飞行类型。因此,这确实使我们能够根据具体的发动机而不是产品系列来进行维护和检修。
关于改变信息科技(IT)工作方式
我们作为一个IT部门已经适应了。我们真正是依靠物联网能力和平台能力。因而有平台即服务的产品。我觉得在我到这里之前,这里的心态是“我们不想绑定自己”。但对我而言,如果你不打算与云供应商的功能合作,你差不多就否定了云的好处。
我认为另一方面也确实是一种文化的改变。所以现在为我工作的团队,我们分成了产品团队,团队代表平台本身的各种价值链,我们的工作具有高度的敏捷性。
而且我认为,最后也是最重要的一点是,我们都有相同的结果。因此,我们遵循所谓的OKR(目标和关键结果)过程。这不是给团队设定的。团队帮助我们设定目标的重要部分,帮助我们定义关键结果。这有助于我们根据实际交付的成果来判断我们的进展,而不是根据IT任务或子系统或我们在一天内做了多少次部署,也不是根据我们的敏捷性,有些人喜欢衡量敏捷性。所以,对我来说,我们确实完成了一个巨大的改变,之前是规格和形式,现在是产品团队、协作、迭代,因而就只是对实际结果的高度聚焦。
关于开始使用物联网数据的建议
我认为我所看到的所有项目都大错特错,都是卡在研发部门,或者卡在IT部门,每个人都在费老劲捕获每一个数据。然后过了两年后有人说,“我们用这些数据来干嘛?”这时候,像我这样的人通常就会走进来说,“你们做的这些都错了。”
因此要真正考虑一下终点是什么,客户是谁,用例是什么,成功的结果是什么样子。捕获了这些数据,然后从那里开始进行迭代。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。