AWS今天公布了一系列AI优化的实例,号称这是市场上最强大的实例,旨在吸引更多企业在AWS云平台上运行人工智能项目。
这个新的P3系列是基于NVIDIA最新一代Volta GPU——Tesla V100,对标的是微软和Google的云产品。该芯片是在5月公布,在大小和苹果Apple Watch手表的模片上封装了211亿个晶体管。这些晶体管形成了超过5700个处理核心,其中640个是所谓的Tensor Cores,是专门针对运行AI模型的优化电路。
Amazon新推出的P3实例系列有三种规格,分别提供每虚拟机1个、4个和8个V100。最高的两个配置中芯片是使用NVIDIA开发的NVLink技术连接的,该技术可交换数据进行处理,速度远远快于传统方式。这三个实例背后是有最多64个基于英特尔至强E5-2686v4 CPU修改版的vCPU支持。
所有这些芯片能够让最大的P3实例在特定情况下提供高达1 petaflop的性能。在更实际的情况下,该系列也要比AWS上一代P2快大约14倍。
AWS高管Matt Garman在声明中表示,P2实例已经是“当前云中能够最大限度完成机器学习”的实例,也就是说,P3系列的发布只会进一步巩固AWS的领先地位,特别是AWS的两大竞争对手Google和微软目前都还没有在他们各自的云平台上支持NVIDIA V100芯片。
Moor Insights & Strategy高性能计算和深度学习咨询主管Karl Freund表示:“AWS和NVIDIA再一次走在了前列,树立了业界其他厂商可以遵循的价格标杆。”
现在企业客户能够开始使用新P3系列的方法有两种,他们可以手动设置,或者使用针对P3系列的两个预配置Amazon Machine Images之一,其中包括。
NVIDIA表示,AWS客户是第一批可使用NVIDIA AI Cloud Container Registry的客户,这个软件堆栈包含常用的深度学习框架,例如TensorFlow、Caffee、CNTK和Torch。
NVIDIA公司副总裁、企业系统总经理Jim McHugh表示:“这将为开发者提供他们需要的大量功能,其想法是尽可能多地吸引用户,让深度学习普及开来。”
尽管AWS是第一个采用NVIDIA最新技术的厂商,但是其他云提供商也将这么做,不过他并没有提供具体的时间表。
P3系列的第一个采用者是位于纽约的化学模拟提供商Schrödinger LLC。这家公司宣称,新的实例让他们在一天内运行的模拟数量是上一代P2的4倍。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。