在近期举办的2023大中华区高管交流大会上, Gartner发布最新调研结果显示,中国企业正在将人工智能项目从原型转向生产,大多数企业已不再纠结于为何需要AI能力,而更加关注AI工程化能力的建设,以数据驱动决策为目标,持续为业务创造价值。一些领先的中国AI企业已经在各个场景中运用生成AI和其他新型AI技术,构建原生AI企业。
尽管CIO们普遍认为AI对业务具有巨大的价值,但董事会成员对AI持有怀疑态度,其实际效果未能达到预期。然而,ChatGPT的推出使得董事会成员和企业高管首次接触到生成AI的巨大潜力,开始相信生成AI能够为业务带来变革和巨大价值。这给CIO们带来了一些焦虑和压力,他们担心错过了生成AI的投资机会。
Gartner发布中国企业人工智能趋势浪潮3.0,旨在帮助企业首席信息官(CIO)更好地规划AI能力,提升业务效果。
守成和创新
目前,中国企业平均已部署超过5个AI用例,每个企业平均已开始部署24个AI用例。虽然许多业务用户或企业高管认为AI只是像安装插件一样简单,但实际上,运营AI涉及数据加工、业务指标梳理、数据集成、业务集成、持续监控和优化等多个环节,需要全局考虑端到端的AI用例和流程。5个中国企业中仅有1个企业的AI能够完全满足业务需求,这也是为什么越来越多的领先企业不再将AI视为单个项目的投入,而是以产品运营和组合运营的方式,从端到端、业务结果导向的角度来整体运营AI,使其在全生命周期中持续产生业务效果。
Gartner高级研究总监方琦表示:“大多数企业会保持现有业务成果,并在有能力的情况下利用生成式AI进行算法改进类的局部创新。对于一些企业而言,进行流程,算法,系统的全局创新可能带来更有价值的应用,但也伴随着较大的风险。在最新的中国企业调研中,有75%的企业认为生成式AI的未来能力可能超过其带来的风险。尽管目前企业对风险的感知较低,但一旦出现风险,可能会对企业造成巨大商誉损失和客户流失。”
平衡风险和价值
在应用生成型AI时,企业往往会规避风险,即在不引起严重后果或潜在争议的情况下使用AI技术。这种谨慎的态度是合理的,但也可能导致错失一些潜在的商业机会。因此,企业需要在实现商业价值和管理风险之间寻求平衡。
Gartner高级研究总监方琦表示:“为了平衡价值和风险,我们应该延续巩固已有投资,持续应对已知的风险,将精力投入到机会或高业务价值低风险的持续投入中。对于高风险低价值的用例,我们应果断地去除它们。同时,我们也可以从创新的角度追逐高业务价值和高风险的用例,通过隐私计算等方式保护用户数据隐私,并通过数据的统计值帮助业务持续实现其价值,打造差异性能力。”
为了确保AI应用的可信度和可解释性,企业应该采取透明度和可解释性的方法,确保AI决策过程的透明度,以及提供对AI决策的解释和辩解能力。在应用生成型AI时,企业需要仔细评估可能涉及的道德、法律和社会问题,并确保符合相关法规和道德标准。通过建立明确的监管和治理框架,企业可以在平衡创新和风险的基础上实现AI的商业潜力。
融合团队
在明确风险和价值之后,我们还需要思考如何选择人才和调整组织架构,以帮助AI战略性地落地。在中国企业落地AI时,超过一半的企业认为人才是最大的挑战。与此相比,在国外只有不到30%的企业认为AI人才是最大的挑战。这可能是因为不同的组织对人才和组织关系的要求不同。领先的机构通常能够整合不同的业务理解、IT技能和数据科学技能,使AI能够更完整、更全面、更有效地落地。
Gartner高级研究总监方琦表示:“在落地AI方面,选择合适的人才是首要任务,但也不能忽视组织架构和企业文化对人才适配的重要作用。通过守成为先、管理风险、择人任势这三个理念,更加战略地规划,落地,运营相应的AI能力。”
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。