Gartner近期发布的2024年CIO和技术高管调研显示,超过60%的中国企业计划在未来12至24个月内部署生成式人工智能(GenAI)。由于中国企业倾向于在本地而非通过公有云部署GenAI,目前的基础设施环境无法支持GenAl项目,这将推动中国企业数据中心的设计转型。
Gartner研究总监张吟铃表示:“由于安全和数据隐私方面的担忧以及监管要求,一些企业更倾向于在本地部署GenAl解决方案或微调大语言模型(LLM)。在本地部署GenAl对于数据中心来说并不仅仅是一个简单的托管需求,而是可能改变企业数据中心的战略,因为模型训练需要大规模的GPU集群。”
Gartner定义了五种GenAl部署方法(见图1)。根据企业选择的GenAI部署方法,中国的首席信息官(CIO)及基础设施和运营(I&O)领导者需要了解GenAI部署的影响以及如何采取行动。
图1:生成式人工智能部署的五种方法

中国的CIO及I&O领导者须为应对这一技术对数据中心的影响做好准备。
本地部署GenAI将迫使I&O领导者改变托管环境的设计方式
部署GenAI对数据中心的影响取决于所运行的工作负载类型,因为某些GenAI工作负载需要使用高端图形处理器(GPU)。由于中国市场上的高端GPU供应有限,I&O领导者要在本地部署GenAI就需要改变托管环境的设计方式。
I&O领导者无法独自解决供应短缺问题,必须与业务、AI工程师和职能团队合作应对这一挑战。
张吟铃表示:“为GenAl的部署准备基础设施资源的中国CIO及I&O领导者应该主动与业务及相关团队合作,预测不同工作负载对数据中心的成本和时间表的影响,从而为GenAl的部署制定数据中心宏观战略。如果训练模型需要高端GPU集群,则需要通过平衡成本、风险和机遇(如购买替代硬件或租赁GPU资源),充分了解各类托管方案。”
部署大规模GPU集群需要改造并升级数据中心基础设施和设备
从零开始构建基础模型或微调模型需要部署大规模GPU集群,这将对现有数据中心带来颠覆。因为GenAI模型的训练需要高吞吐量、低延迟和无损的基础设施。为了支持此类高性能计算集群,必须对网络、存储、电力供应和冷却系统进行升级。在某些情况下,需要对现有设施进行改造,以承载升级后的基础设施(见图2)。
图2:大规模GPU集群对数据中心的影响

张吟铃表示:“中国CIO及I&O领导者需要与数据科学家和工程师合作,明确GPU集群规模和GenAI性能要求,从而确定网络和存储等方面的基础设施要求。同时,也需要分析电力需求、冷却效率、机架、空间等,确定现有数据中心环境在部署大型GPU集群方面存在的差距。平衡时间和成本,选择最适合的数据中心改造方案。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。