在生成式AI迈入规模化生产和复杂应用的新阶段,AI基础设施的演进速度正逐步决定技术落地的可能性。作为全球领先的云服务提供商,亚马逊云科技日前推出了基于NVIDIA Blackwell架构的两款最新AI计算方案——Amazon EC2 P6e-GB200 UltraServer与Amazon EC2 P6-B200实例。两者分别定位于极致规模的模型训练与通用型AI负载,为构建下一个时代的智能系统提供坚实算力支撑。
P6e-GB200 UltraServer:为万亿参数级推理模型而生
Amazon EC2 P6e-GB200 UltraServer是亚马逊云科技迄今为止最强大的GPU产品,单台可集成72颗NVIDIA Blackwell GPU,并借助第五代NVIDIA NVLink技术实现统一的GPU互联架构。这种设计让所有GPU协同运行于一个统一内存空间中,形成单一逻辑计算单元,在分布式训练场景下大幅降低节点间通信开销,极大提升训练效率。
每台UltraServer拥有高达360 petaflops的FP8算力和13.4 TB的HBM3e高速显存,计算能力是前代P5en实例的20倍以上,显存容量提升超过11倍,足以容纳并运行当前最前沿的万亿参数级模型。这对于专家混合模型、超长上下文窗口的推理系统以及高并发实时应用等场景而言,具备决定性优势。
同时,P6e-GB200 UltraServer配备第四代Elastic Fabric Adapter(EFAv4)网络带宽,吞吐能力达28.8 Tbps,并已全面部署于第三代Amazon EC2 UltraCluster架构中,形成面向超大规模AI训练与推理的单一高效算力平面。该集群架构不仅提升资源利用率,还可减少多达80%的布线需求与40%的能耗。
P6-B200实例:灵活应对中大型AI训练与迁移任务
Amazon EC2 P6-B200则定位为通用型AI计算实例,适用于中至大型模型训练、推理任务及现有工作负载的无缝迁移。其每个实例集成8个NVIDIA Blackwell GPU,通过NVLink互连并配备1.4 TB高带宽显存,同时支持高达3.2 Tbps的EFAv4网络带宽,以及第五代Intel Xeon可扩展处理器。
相比P5en实例,P6-B200在计算性能、显存容量和带宽上分别提升至2.25倍、1.27倍与1.6倍。更重要的是,P6-B200继承了前代8-GPU配置架构,对于已在亚马逊云科技部署AI工作负载的客户而言,几乎无需更改代码,即可平滑迁移至新架构,降低运维与改造成本。
此外,在面对多样化AI算法与运行环境时,P6-B200提供x86架构支持,与客户既有软件栈高度兼容,为延续性和稳定性提供保障。NVIDIA的AI软件栈已针对Arm与x86进行全面优化,而配合Intel平台的P6-B200在多任务调度与传统迁移任务中更具操作便利性。
面向下一代AI的架构革新
从单机架构到集群部署,P6系列不仅体现了硬件性能上的跨代跃升,也代表了亚马逊云科技在AI基础设施系统性能力上的深度集成。Amazon EC2 P6e-GB200 UltraServer采用创新液冷设计,突破了传统气冷架构在高密度部署中的性能限制,可在既有或新建数据中心中以更高能效运行,打造更绿色可持续的AI运行环境。
同时,两款实例均搭载第六代Nitro系统,在保障实例隔离性、安全性基础上,实现支持不中断更新的“实时更新”能力。该系统将网络、存储与IO功能独立于主机之外,使得基础设施可在运行状态下完成补丁更新与性能优化,适配AI训练中的长周期、连续性高要求场景。
无论是高性能推理模型、极端训练任务,还是稳定运维环境与灵活架构迁移,亚马逊云科技正在以P6系列为基础,构建未来AI基础设施的核心支点,引领AI算力进入高效、安全、弹性的新阶段。
好文章,需要你的鼓励
这期是技术加情怀了。极少数人基于热情和对卓越的执念,构建了数十亿人每天依赖但普通人从不知晓的基础设施。
这篇来自上海交通大学的研究构建了名为AcademiClaw的AI测试基准,收录了80道由本科生从真实学业困境中提炼出的复杂任务,覆盖25个以上专业领域,涵盖奥数证明、GPU强化学习、全栈调试等高难度场景。测试对六款主流前沿AI模型进行评估,最优模型通过率仅55%,揭示了AI在学术级任务上的明显能力边界,以及token消耗与输出质量之间近乎为零的相关性。
Antigravity A1无人机推出"大春季更新",新增AI智能剪辑、语音助手、延时摄影模式及升级版全向避障系统。用户可通过语音命令控制Sky Genie、深度追踪等核心功能,虚拟驾驶舱支持第三人称视角飞行。随着产品进入墨西哥市场,Antigravity全球覆盖已近60个国家,持续推动无人机向更智能、更易用方向发展。
Meta AI安全团队于2026年5月发布了代码世界模型(CWM)的预发布安全评估报告(arXiv:2605.00932v1)。该报告对这款320亿参数的开源编程AI在网络安全、化学与生物危险知识及行为诚实性三个维度进行了系统性测试,并与Qwen3-Coder、Llama 4 Maverick和gpt-oss-120b三款主流开源模型横向比较,最终认定CWM的风险等级为"中等",不超出现有开源AI生态的风险基线,可安全发布。