在生成式AI迈入规模化生产和复杂应用的新阶段,AI基础设施的演进速度正逐步决定技术落地的可能性。作为全球领先的云服务提供商,亚马逊云科技日前推出了基于NVIDIA Blackwell架构的两款最新AI计算方案——Amazon EC2 P6e-GB200 UltraServer与Amazon EC2 P6-B200实例。两者分别定位于极致规模的模型训练与通用型AI负载,为构建下一个时代的智能系统提供坚实算力支撑。
P6e-GB200 UltraServer:为万亿参数级推理模型而生
Amazon EC2 P6e-GB200 UltraServer是亚马逊云科技迄今为止最强大的GPU产品,单台可集成72颗NVIDIA Blackwell GPU,并借助第五代NVIDIA NVLink技术实现统一的GPU互联架构。这种设计让所有GPU协同运行于一个统一内存空间中,形成单一逻辑计算单元,在分布式训练场景下大幅降低节点间通信开销,极大提升训练效率。
每台UltraServer拥有高达360 petaflops的FP8算力和13.4 TB的HBM3e高速显存,计算能力是前代P5en实例的20倍以上,显存容量提升超过11倍,足以容纳并运行当前最前沿的万亿参数级模型。这对于专家混合模型、超长上下文窗口的推理系统以及高并发实时应用等场景而言,具备决定性优势。
同时,P6e-GB200 UltraServer配备第四代Elastic Fabric Adapter(EFAv4)网络带宽,吞吐能力达28.8 Tbps,并已全面部署于第三代Amazon EC2 UltraCluster架构中,形成面向超大规模AI训练与推理的单一高效算力平面。该集群架构不仅提升资源利用率,还可减少多达80%的布线需求与40%的能耗。
P6-B200实例:灵活应对中大型AI训练与迁移任务
Amazon EC2 P6-B200则定位为通用型AI计算实例,适用于中至大型模型训练、推理任务及现有工作负载的无缝迁移。其每个实例集成8个NVIDIA Blackwell GPU,通过NVLink互连并配备1.4 TB高带宽显存,同时支持高达3.2 Tbps的EFAv4网络带宽,以及第五代Intel Xeon可扩展处理器。
相比P5en实例,P6-B200在计算性能、显存容量和带宽上分别提升至2.25倍、1.27倍与1.6倍。更重要的是,P6-B200继承了前代8-GPU配置架构,对于已在亚马逊云科技部署AI工作负载的客户而言,几乎无需更改代码,即可平滑迁移至新架构,降低运维与改造成本。
此外,在面对多样化AI算法与运行环境时,P6-B200提供x86架构支持,与客户既有软件栈高度兼容,为延续性和稳定性提供保障。NVIDIA的AI软件栈已针对Arm与x86进行全面优化,而配合Intel平台的P6-B200在多任务调度与传统迁移任务中更具操作便利性。
面向下一代AI的架构革新
从单机架构到集群部署,P6系列不仅体现了硬件性能上的跨代跃升,也代表了亚马逊云科技在AI基础设施系统性能力上的深度集成。Amazon EC2 P6e-GB200 UltraServer采用创新液冷设计,突破了传统气冷架构在高密度部署中的性能限制,可在既有或新建数据中心中以更高能效运行,打造更绿色可持续的AI运行环境。
同时,两款实例均搭载第六代Nitro系统,在保障实例隔离性、安全性基础上,实现支持不中断更新的“实时更新”能力。该系统将网络、存储与IO功能独立于主机之外,使得基础设施可在运行状态下完成补丁更新与性能优化,适配AI训练中的长周期、连续性高要求场景。
无论是高性能推理模型、极端训练任务,还是稳定运维环境与灵活架构迁移,亚马逊云科技正在以P6系列为基础,构建未来AI基础设施的核心支点,引领AI算力进入高效、安全、弹性的新阶段。
好文章,需要你的鼓励
Xbench是知名投资机构红杉中国推出一款全新的AI基准测试工具,旨在真实地反映AI的客观能力,其在评估和推动AI系统提升能力上限与技术边界的同时,会重点量化AI系统在真实场景的效用价值,并采用长青评估的机制,去捕捉AI产品的关键突破。
这项研究首次将在线强化学习成功应用于流匹配模型,通过巧妙的ODE到SDE转换和去噪减少策略,显著提升了AI图像生成的精确度和可控性。在复合场景生成、文字渲染等任务上取得突破性进展,为AI生成领域开辟了新的技术路径。
Atlassian总裁Anu Bharadwaj在Transform 2025大会上分享了公司AI智能体规模化的实践经验。她强调,成功部署AI智能体需要营造实验文化,而非仅依靠自上而下的指令。Atlassian通过Rovo Studio平台为各团队提供了构建定制化智能体的环境,创造心理安全的工作氛围,鼓励员工大胆尝试和迭代。公司客户通过该平台显著提升了工作效率,建筑行业客户将路线图创建时间缩短75%。
这篇由阿里巴巴集团联合多所知名高校发表的综述论文,系统梳理了统一多模态理解与生成模型的最新发展。研究将现有模型分为扩散、自回归和混合三大类型,详细分析了不同图像编码策略的特点,整理了相关数据集和评估基准,并深入探讨了当前面临的技术挑战。