玛氏集团数字化转型负责人Marijn Grevink表示,公司需要推动数字化转型、而且需要立即执行,这波浪潮必须覆盖其全球业务范围。
玛氏集团的年销售额高达400亿美元,是全球最大的家族企业之一。作为一家私人控股公司,玛氏往往会以代际、而非季度考虑发展方向。公司的座右铭就是明证:“我们理想中的明天,源自我们当下的经营方式。”
Grevink表示,如今的变化疾如迅雷,因此企业必须准备每19天就迎接一次大颠覆。固定电话用户达到5000万人花了75年,但《神奇宝可梦:Go》积累5000万用户只用了19天。这就是信息时代的速度。
“与大多数企业一样,要在19天内为颠覆性的变化寻找答案,对玛氏来说绝非易事。我们需要转变组织结构,主动建设一个更具弹性、更加敏捷的未来。我们还没发展到那个高度,但我们已经找到了通往目标的道路,我们也会向他人虚心学习。”
玛氏集团希望由直觉驱动转化为数据驱动,让玛氏员工能够根据专业知识做出符合数据模式的决策。他们还希望消除重复性工作。
Grevink认为,要想在数字化转型中取得成功,需要构建“胜利灯塔”的三种基本构件:土耳其、上层建筑和顶端灯标。缺少任何一项,灯塔的功能都不完备。
地基即业务流程,也就是日常业务的“运作方式”。对玛氏来说,地基就是糖果生产。在这部分,需要的是卓越运营、全面的预测性维护、精益制造、健康和安全以及食品质量保障。
第二大构件是上层建筑,也就是用于支持流程的工具。玛氏已经拥有大量成熟的应用程序,但仍在寻求新的应用程序并希望做出正确选择。要做出正确选择,玛氏依托于两大基本原则:“变革式创新”与“进化式创新”。
“进化式创新的本质,就是审视我们当前所处的位置、正在面临的问题和解决这些问题的思路,据此逐步构建未来。这是一种比较安全的创新方式,但见效速度也很慢——如同穿越一片丛林。林子被浓雾笼罩,视野非常有限。要走到一棵树前,才能看见下一棵树。”
“变革式创新则强调采取更大胆的观点。我们不是从当前着眼,而是直接想象理想中的未来。例如,我们直接构想未来工厂的最佳形式,再看看当下该做些什么来朝着那个方向前进。”
灯标部分则是任务的设定和传达。Grevink认为,群众就是指路的明灯。没有人,工具本身无法提供任何价值。群众创造价值,工具只是在提高他们的创造效率。
“如果没有使命,无论做什么,都可能欠缺激励员工的重点和目标。必须设定出能在企业和团队间引发共鸣、人们真正渴望达成的明确目标。”
“但这项使命也对应着巨大的责任。一旦任务启动,每个人都有可能犯错。只有接受错误,才有可能实现创新。”
在Grevink看来,技术的发展完全可能在五年之内就彻底淘汰一家企业,所以玛氏必须随时为下一步做好准备。面对恐怖的迭代节奏,玛氏的数字化转型团队尝试在一轮轮冲刺中工作,并通过快速行动敦促自己快速学习。
“对玛氏这样的大规模企业来说,快速发展本身可能就是最大的挑战。我们的方法是尽可能提高决策质量,同时辅以多次迭代,这样我们才能快速学习。这背后的基本理念,就是「快速尝试、快速失败,最终快速取胜」。”
“我的团队就经常失败,但这一切都是在为最终胜出铺路搭桥。不只是我们团队,整个企业都是这样做的。我们坚信,只有避免互不往来地孤立工作,我们才能成功完成设施改造。我们需要把整个体系甚至是所有部门都统筹起来,再分区域制定不同的使命、愿景和战略。”
“正因为如此,我们才会在路线图中体现各区域间的组织形式。我们建立了路线图指导委员会,确保能跟各地部门建立起强有力的联系,毕竟转型可不是单靠自上而下灌输就能实现的。各个区域都必须认同核心目标,所以我们决定在起步阶段就把大家联系在一起。”
根据使命,数字化转型团队往往能快速生成可立即交付价值的小型运营构建单元。Grevink表示,“我们会邀请最终用户参与各个环节。我们会坐在控制室里看他们操作,在生产线旁看他们生产,要求他们做点实际测试。相应结果会被直接反馈给我们的开发人员,由他们逐步改进现有解决方案。”
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。