亚马逊云科技与OpenAI宣布达成一项为期多年的战略合作协议。OpenAI将立即在亚马逊云科技全球领先的云基础设施上运行并扩展其核心AI(人工智能)工作负载。根据这项总额达380亿美元的新协议,未来七年双方将持续深化合作,OpenAI将获得由数十万颗由先进的NVIDIA GPU组成的亚马逊云科技算力资源,并具备扩展至数千万个CPU的能力,以快速扩大Agentic工作负载的规模。亚马逊云科技在安全、可靠、可扩展的大规模AI基础设施运行方面拥有独特经验,其集群规模可超过50万颗芯片。亚马逊云科技在云基础设施领域的领先优势与OpenAI在生成式AI方面的创新突破相结合,将帮助数以百万计的用户持续从ChatGPT中受益。
AI技术的飞速发展对算力的需求达到了前所未有的高度。前沿模型的开发者们在推动模型智能水平不断突破的同时,越来越多地选择亚马逊云科技,以实现卓越的性能、规模与安全性。根据合作协议,OpenAI将立即开始使用亚马逊云科技的算力资源,所有部署目标预计在2026年底前完成,并计划在2027年及之后进一步扩大规模能力。
亚马逊云科技为OpenAI构建的基础设施采用先进的架构设计,旨在使AI计算的效率与性能最大化。通过在同一网络中以Amazon EC2 UltraServers集群连接NVIDIA GPU(包括GB200与GB300),可在互联系统间实现极低延迟的通信,使OpenAI能够以最佳性能高效运行AI任务。这些集群被设计用于支持从ChatGPT推理服务到下一代模型训练等多样化任务,并能灵活适应OpenAI未来不断演进的需求。
OpenAI联合创始人兼首席执行官Sam Altman表示,“扩展前沿AI需要庞大且可靠的算力资源。我们与亚马逊云科技的合作强化了广泛的算力生态,这将为新一代AI提供动力,并让先进AI惠及每一个人。”
亚马逊云科技首席执行官Matt Garman表示,“随着OpenAI不断突破AI的可能性边界,亚马逊云科技领先的基础设施将成为实现其AI愿景的坚实支撑。亚马逊云科技拥有广泛且即时可用的优化算力,这充分显示了我们在支持OpenAI超大规模AI工作负载方面的独特优势。”
此次合作延续了双方在推动前沿AI技术普及方面的长期努力。今年早些时候,OpenAI的开放权重基础模型已在Amazon Bedrock上线,为亚马逊云科技的数百万客户带来更多选择。OpenAI迅速成为Amazon Bedrock上最受欢迎的公开模型提供方之一,已有数千家企业包括Bystreet、Comscore、Peloton、Thomson Reuters、Triomics和Verana Health等使用其模型开展Agentic工作流、代码生成、科学分析、数学推理等多种应用。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。