在生成式AI迈入规模化生产和复杂应用的新阶段,AI基础设施的演进速度正逐步决定技术落地的可能性。作为全球领先的云服务提供商,亚马逊云科技日前推出了基于NVIDIA Blackwell架构的两款最新AI计算方案——Amazon EC2 P6e-GB200 UltraServer与Amazon EC2 P6-B200实例。两者分别定位于极致规模的模型训练与通用型AI负载,为构建下一个时代的智能系统提供坚实算力支撑。
P6e-GB200 UltraServer:为万亿参数级推理模型而生
Amazon EC2 P6e-GB200 UltraServer是亚马逊云科技迄今为止最强大的GPU产品,单台可集成72颗NVIDIA Blackwell GPU,并借助第五代NVIDIA NVLink技术实现统一的GPU互联架构。这种设计让所有GPU协同运行于一个统一内存空间中,形成单一逻辑计算单元,在分布式训练场景下大幅降低节点间通信开销,极大提升训练效率。
每台UltraServer拥有高达360 petaflops的FP8算力和13.4 TB的HBM3e高速显存,计算能力是前代P5en实例的20倍以上,显存容量提升超过11倍,足以容纳并运行当前最前沿的万亿参数级模型。这对于专家混合模型、超长上下文窗口的推理系统以及高并发实时应用等场景而言,具备决定性优势。
同时,P6e-GB200 UltraServer配备第四代Elastic Fabric Adapter(EFAv4)网络带宽,吞吐能力达28.8 Tbps,并已全面部署于第三代Amazon EC2 UltraCluster架构中,形成面向超大规模AI训练与推理的单一高效算力平面。该集群架构不仅提升资源利用率,还可减少多达80%的布线需求与40%的能耗。
P6-B200实例:灵活应对中大型AI训练与迁移任务
Amazon EC2 P6-B200则定位为通用型AI计算实例,适用于中至大型模型训练、推理任务及现有工作负载的无缝迁移。其每个实例集成8个NVIDIA Blackwell GPU,通过NVLink互连并配备1.4 TB高带宽显存,同时支持高达3.2 Tbps的EFAv4网络带宽,以及第五代Intel Xeon可扩展处理器。
相比P5en实例,P6-B200在计算性能、显存容量和带宽上分别提升至2.25倍、1.27倍与1.6倍。更重要的是,P6-B200继承了前代8-GPU配置架构,对于已在亚马逊云科技部署AI工作负载的客户而言,几乎无需更改代码,即可平滑迁移至新架构,降低运维与改造成本。
此外,在面对多样化AI算法与运行环境时,P6-B200提供x86架构支持,与客户既有软件栈高度兼容,为延续性和稳定性提供保障。NVIDIA的AI软件栈已针对Arm与x86进行全面优化,而配合Intel平台的P6-B200在多任务调度与传统迁移任务中更具操作便利性。
面向下一代AI的架构革新
从单机架构到集群部署,P6系列不仅体现了硬件性能上的跨代跃升,也代表了亚马逊云科技在AI基础设施系统性能力上的深度集成。Amazon EC2 P6e-GB200 UltraServer采用创新液冷设计,突破了传统气冷架构在高密度部署中的性能限制,可在既有或新建数据中心中以更高能效运行,打造更绿色可持续的AI运行环境。
同时,两款实例均搭载第六代Nitro系统,在保障实例隔离性、安全性基础上,实现支持不中断更新的“实时更新”能力。该系统将网络、存储与IO功能独立于主机之外,使得基础设施可在运行状态下完成补丁更新与性能优化,适配AI训练中的长周期、连续性高要求场景。
无论是高性能推理模型、极端训练任务,还是稳定运维环境与灵活架构迁移,亚马逊云科技正在以P6系列为基础,构建未来AI基础设施的核心支点,引领AI算力进入高效、安全、弹性的新阶段。
好文章,需要你的鼓励
大数据可观测性初创公司Monte Carlo Data推出全新Agent Observability产品,为AI应用提供全方位数据和AI可观测性。该工具帮助团队检测、分类和修复生产环境中AI应用的可靠性问题,防止代价高昂的"幻觉"现象,避免客户信任度下降和系统宕机。新产品采用大语言模型作为评判器的技术,能够同时监控AI数据输入和输出,提供统一的AI可观测性解决方案。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
网络安全公司Aikido披露了迄今最大规模的npm供应链攻击事件。攻击者通过钓鱼邮件获取维护者账户凭证,向18个热门JavaScript包注入恶意代码,这些包每周下载量超过26亿次。恶意代码专门劫持加密货币交易,监控浏览器API接口将资金转移至攻击者地址。受影响的包括chalk、debug等广泛使用的开发工具库。虽然攻击在5分钟内被发现并及时公开,但专家警告此类上游攻击极具破坏性,可能与朝鲜黑客组织相关。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。