Gartner对首席信息官(CIO)和技术高管的年度全球调研显示,45%的CIO开始与其他高管合作,将IT和业务员工整合到一起,并且共同领导整个企业的数字交付工作。
Gartner杰出研究副总裁Mandi Bishop表示:“CIO面临着一场范式转变,需要与其他高管共同承担数字化领导责任,同时还要应对预算的压力和革命性技术的影响。为了成功地领导数字化转型举措,CIO必须与业务领导者共担责任,将数字能力的设计、交付和管理任务交给最接近价值创造点的团队。”
2024年Gartner首席信息官和技术高管调研收集了84个国家和所有主要行业2457名受访CIO的数据,所涉企业的收入/公共部门预算约为12.5万亿美元,IT支出为1,630亿美元。
CIO继续通过生成式AI 推动数字交付的大众化
CIO已通过低代码平台等技术为数字交付的大众化奠定了基础,64%的CIO表示他们已部署或计划在未来24个月内部署此类平台。70%的CIO表示,生成式AI是一项能改变游戏规则的技术,将迅速推动IT部门以外的数字交付大众化。虽然只有 9%的CIO已部署了生成式AI 技术,但有超过一半(55%)的CIO表示将在未来 24 个月内部署该技术。
调研显示,CIO在 2024年的首要投资领域包括网络安全、数据分析和云平台(见图一)。
图 一、CIO对 2024 年技术投资变化的预期

数据来源:Gartner(2023年10月)
调研显示,CIO和 IT领导人认为创造卓越的客户或市民体验、提高营业利润率和创造收入是数字技术投资的最重要成果(见图二)。
图二、CIO认为的数字技术投资给企业所带来的最重要成果

数据来源:Gartner(2023年10月)
Bishop表示:“今天的CIO已将目光投向IT 交付之外的领域。事实证明,42%的CIO表示希望在现有职责范围内发展,43% 的CIO希望突破现有职责范围,承担更多领导责任。CIO必须在业务成果交付方面做到最好,才能更上一层楼。”
CIO可通过特许经营赋能和“武装”以业务为主导的数字交付团队
调研根据CIO加速和扩展数字交付的方式,将CIO分为以下三种不同类型:
与经营者和探索者类型相比,特许者型CIO更有可能达到或超越对数字化成果的预期。具体而言,当CIO采用特许模式时,整个企业 63%的数字化举措都能达到或超过成果目标。相比之下,当CIO仍采用传统的经营者模式时,只有43%的数字化举措取得成功。另外,在高管领导力发展和数字业务战略等一般 IT 管理活动上,特许者型CIO的表现也要好得多。
Gartner杰出研究副总裁Janelle Hill表示:“数字交付的持续大众化,有望推动业务创新、加快上市速度和提升敏捷性。CEO希望CIO能积极协调以保障各项企业成果的实现,因此CIO必须对其他高管领导的不同数字化举措进行整合和协调。CIO与其他高管共同负责数字交付不仅是部门、更是整个企业收获成果所必不可少的一环。”
在特许模式中,CIO还与其他高管共同负责技术治理。近一半的特许者型CIO(47%)认同业务部门应与IT分担合规和风险责任,而经营者型CIO中的这一比例仅为 19%。
Hill表示:“传统上,网络安全和数据隐私这两个领域属于CIO的监管范围。具有共同治理思维的特许者型CIO会与其他高管合作,共同管理这两个领域。其他高管认可CIO是治理标准制定的主要负责人,也承认必须与CIO共同承担遵守这些标准的责任。”
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。