商业与技术洞察公司Gartner最新发布的2025年Gartner人工智能技术成熟度曲线显示,AI智能体和AI就绪型数据是当前发展最快的两项技术。这两项技术在今年受到高度关注,伴随着大胆预测和预期性承诺来到期望膨胀期。
Gartner技术成熟度曲线用图形表示技术和应用发展的成熟度、市场采用情况,以及其与解决现实业务难题和抓住新机遇的相关性。Gartner的技术成熟度曲线方法可以提供技术或应用发展走向的视图,使企业能够基于可靠的洞察,根据具体的业务目标来管理技术或应用部署。
Gartner高级研究总监Haritha Khandabattu表示:“由于今年的AI投资依然强劲,企业更加重视使用AI实现运营可扩展性和实时智能。这使企业将核心关注点从生成式AI逐步转向AI就绪型数据、AI智能体等支持可持续AI交付的基础性支撑技术。”
在Gartner预计将在未来五年内实现主流采用的人工智能(AI)创新中,多模态AI与AI信任、风险和安全管理(TRiSM)已成为期望膨胀期阶段最重要的两项技术(见图1),将共同支持更加强大、更具创新性和更负责任的AI应用,深入改变企业机构的运营方式。
图1:2025年人工智能技术成熟度曲线

来源:Gartner(2025年8月)
Khandabattu表示:"虽然AI拥有巨大的业务价值潜力,但无法自发实现这一价值。成功需要依靠与业务紧密结合的试点项目、具有前瞻性的基础设施基准化分析,以及AI团队与业务团队创造切实业务价值的默契。”
AI智能体
AI智能体是自主或半自主的软件实体,使用AI技术在数字或物理环境中进行感知、做出决策、采取行动并实现目标。通过运用大语言模型等人工智能实践及技术,企业机构正在开发并部署AI智能体,以完成复杂的任务。
“为了充分发挥AI智能体的优势,企业需要确定最相关的业务场景和用例。但由于不存在完全相同的AI智能体和使用情况,这项工作的难度很大。”Khandabattu表示,“虽然AI智能体将不断变强,但依旧无法适用于所有情况,因此主要还是要根据当前情况的具体要求使用。”
AI就绪型数据
AI就绪型数据可以针对AI应用优化数据集,从而提高数据集的准确性和效率。就绪是指数据能够被证明适用于特定AI用例。AI就绪型数据的内涵取决于具体的情境,因AI用例和AI技术而异,必须对其采取新的数据管理方法。
Gartner认为,所有在AI领域投入大量资金的企业机构都需要不断发展自身的数据管理实践和能力,并将这些实践和能力扩展到AI领域,以满足当前和未来的业务需求、确保信任、规避风险和合规问题、保护知识产权,并减少偏见和幻觉。
多模态AI
多模态AI模型同时使用图像、视频、音频和文本等不同类型的数据进行训练。由于整合并分析了多种不同的数据源,此类模型能够比仅使用一种类型数据的模型更好地理解复杂情况,有助于用户理解世界,并为AI应用开辟新途径。
Gartner研究表明,多模态AI将在未来五年成为各行业提升所有应用和软件产品功能的核心技术。
AI信任、风险和安全管理
AI信任、风险和安全管理(TRiSM)在保证AI伦理与安全部署方面发挥着关键作用。它由四个技术能力层构成,这些技术层支持所有AI用例的企业策略,确保AI得到妥善治理,并且值得信赖、公平、可靠、安全,能够保护隐私和数据。
Khandabattu表示:“AI带来了新型信任、风险与安全管理挑战,依靠传统管控已难以应对。企业机构必须评估并实施多层级AI TRiSM技术,以持续支持和执行与所有在用AI实体相关的策略。”
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。