编者注:本文内容来源于5月份CIO Dive举办的线上活动,相关会议视频现已开放按需观看。
AI正在重塑CIO的职能定位,使其从幕后的技术维护专家转变为智能编排者,负责连接各类平台与生态系统,将数据洞察转化为实际行动。
这一判断来自CIO Dive近日举办的线上活动,与会嘉宾围绕AI如何重塑企业运营展开探讨。随着AI技术的快速演进,CEO们纷纷向技术领导者寻求如何以有效方式落地AI的解答,CIO群体因此被推至聚光灯下。德勤的研究数据显示,八成CIO的职责范围已有所扩展,以协助达成业务目标,其中超过三分之一的CIO还承担着损益管理职能。
万豪国际集团全球CIO Naveen Manga在活动的圆桌讨论中表示,传统CIO职能的核心在于将技术战略与整体业务目标对齐,从而驱动价值创造、推动业务成果落地,并引进相关人才。
"但AI的出现改变了这一范式,"Manga说,"CIO的角色正在演变为智能编排者。"
捷普科技(Jabil)高级副总裁兼全球CIO May Yap在活动中表示,CIO的工作重心已从单纯的信息技术拓展至更宏观的企业技术层面,不仅要推动业务成果的达成,还需深入理解能够提升营收、降低成本、提升客户体验的关键驱动因素。
Yap指出,AI已经催生出一批新的领导力特质,仅凭熟悉新技术已无法使CIO脱颖而出。
"对新技术的了解只是基本门槛,而非差异化优势,"Yap说,"CIO的真正差异化能力在于:你能否真正理解业务问题,能否切实帮助业务方解决实际难题,或者重新思考和想象工作的完成方式。"
Manga表示,2025年对万豪而言是探索、学习和试点AI的一年,而今年的重点则在于规模化推广。万豪在AI应用场景上采取了审慎的方式,聚焦于为住客、员工和业主三类群体释放价值。
"我们的目标不是将AI应用于零散的局部场景,"他说,"我们不会分散精力,而是将所有举措整合为一套面向三类客户群体的价值创造与交付组合方案。"
在面向住客的应用方面,Manga表示其团队正在为桌面端与移动端应用开发一套基于智能体与生成式AI的交互界面,预计于2026年第二季度末上线,用于处理复杂查询,例如海滩附近或步行道旁的酒店推荐、以及周边婴儿看护服务等需求。
与此同时,团队也在着力构建一套统一的界面与技术平台,向前台员工提供数据支持;面向业主方,则致力于打造一个提供酒店运营洞察的平台。
Yap表示,她在捷普同样将规模化作为当前工作重点。她说,在单一制造工厂中创建一个AI试点项目相对容易,但她希望能够将这些项目复制推广至公司遍布全球的制造网络中。
"我们目前的核心工作,就是将这些AI项目产业化,把实验性成果转化为可重复、可靠且嵌入日常运营的能力,"她说。
展望未来,Manga表示他正在为一个拥有数十万名数字化智能体员工的时代做好准备,这些智能体将协助并增强人类管理者的能力。
"这需要一种全然不同的思维方式,以及深度融合的技术体系,使你能够安全地编排这一庞大的未来智能体集群,"他说。
Q&A
Q1:CIO的角色在AI时代发生了哪些具体变化?
A:在AI时代,CIO已从传统的技术维护专家转变为"智能编排者"。其职责不再局限于信息技术管理,而是扩展至更宏观的企业技术层面,需要深入理解业务问题,协助提升营收、降低成本、改善客户体验。德勤数据显示,八成CIO的职责范围已有所扩展,超过三分之一还承担损益管理职能。
Q2:万豪国际是如何落地和推进AI应用的?
A:万豪国际将2025年定位为AI探索与试点年,2026年起转向规模化推广。其AI战略聚焦三类客户群体:面向住客,将推出支持复杂查询的智能体与生成式AI交互界面;面向员工,构建统一数据支持平台;面向业主,打造运营洞察平台。整体采用组合方案而非碎片化应用。
Q3:捷普科技在AI规模化推广方面面临哪些挑战?
A:捷普科技全球CIO May Yap指出,在单一制造工厂创建AI试点并不困难,真正的挑战在于如何将项目复制推广至全球制造网络。她的目标是将AI项目"产业化",使实验性成果转化为可重复、可靠、并嵌入日常运营的标准化能力。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。