在生成式AI迈入规模化生产和复杂应用的新阶段,AI基础设施的演进速度正逐步决定技术落地的可能性。作为全球领先的云服务提供商,亚马逊云科技日前推出了基于NVIDIA Blackwell架构的两款最新AI计算方案——Amazon EC2 P6e-GB200 UltraServer与Amazon EC2 P6-B200实例。两者分别定位于极致规模的模型训练与通用型AI负载,为构建下一个时代的智能系统提供坚实算力支撑。
P6e-GB200 UltraServer:为万亿参数级推理模型而生
Amazon EC2 P6e-GB200 UltraServer是亚马逊云科技迄今为止最强大的GPU产品,单台可集成72颗NVIDIA Blackwell GPU,并借助第五代NVIDIA NVLink技术实现统一的GPU互联架构。这种设计让所有GPU协同运行于一个统一内存空间中,形成单一逻辑计算单元,在分布式训练场景下大幅降低节点间通信开销,极大提升训练效率。
每台UltraServer拥有高达360 petaflops的FP8算力和13.4 TB的HBM3e高速显存,计算能力是前代P5en实例的20倍以上,显存容量提升超过11倍,足以容纳并运行当前最前沿的万亿参数级模型。这对于专家混合模型、超长上下文窗口的推理系统以及高并发实时应用等场景而言,具备决定性优势。
同时,P6e-GB200 UltraServer配备第四代Elastic Fabric Adapter(EFAv4)网络带宽,吞吐能力达28.8 Tbps,并已全面部署于第三代Amazon EC2 UltraCluster架构中,形成面向超大规模AI训练与推理的单一高效算力平面。该集群架构不仅提升资源利用率,还可减少多达80%的布线需求与40%的能耗。
P6-B200实例:灵活应对中大型AI训练与迁移任务
Amazon EC2 P6-B200则定位为通用型AI计算实例,适用于中至大型模型训练、推理任务及现有工作负载的无缝迁移。其每个实例集成8个NVIDIA Blackwell GPU,通过NVLink互连并配备1.4 TB高带宽显存,同时支持高达3.2 Tbps的EFAv4网络带宽,以及第五代Intel Xeon可扩展处理器。
相比P5en实例,P6-B200在计算性能、显存容量和带宽上分别提升至2.25倍、1.27倍与1.6倍。更重要的是,P6-B200继承了前代8-GPU配置架构,对于已在亚马逊云科技部署AI工作负载的客户而言,几乎无需更改代码,即可平滑迁移至新架构,降低运维与改造成本。
此外,在面对多样化AI算法与运行环境时,P6-B200提供x86架构支持,与客户既有软件栈高度兼容,为延续性和稳定性提供保障。NVIDIA的AI软件栈已针对Arm与x86进行全面优化,而配合Intel平台的P6-B200在多任务调度与传统迁移任务中更具操作便利性。
面向下一代AI的架构革新
从单机架构到集群部署,P6系列不仅体现了硬件性能上的跨代跃升,也代表了亚马逊云科技在AI基础设施系统性能力上的深度集成。Amazon EC2 P6e-GB200 UltraServer采用创新液冷设计,突破了传统气冷架构在高密度部署中的性能限制,可在既有或新建数据中心中以更高能效运行,打造更绿色可持续的AI运行环境。
同时,两款实例均搭载第六代Nitro系统,在保障实例隔离性、安全性基础上,实现支持不中断更新的“实时更新”能力。该系统将网络、存储与IO功能独立于主机之外,使得基础设施可在运行状态下完成补丁更新与性能优化,适配AI训练中的长周期、连续性高要求场景。
无论是高性能推理模型、极端训练任务,还是稳定运维环境与灵活架构迁移,亚马逊云科技正在以P6系列为基础,构建未来AI基础设施的核心支点,引领AI算力进入高效、安全、弹性的新阶段。
好文章,需要你的鼓励
Berg Insight研究显示,2024年全球物联网连接收入同比增长12%至142亿欧元。预计到2029年,全球将有64亿物联网设备连接到蜂窝网络,年连接收入达224亿欧元。2024年全球蜂窝物联网用户数增长14%至38亿,占移动用户总数约30%。中国是全球最大的蜂窝物联网连接服务市场,中国移动以14.2亿连接数位居全球首位。
新加坡国立大学研究团队提出TPDiff(时间金字塔视频扩散模型),通过在扩散过程中逐步增加帧率的创新策略,实现了AI视频生成50%的训练成本削减和1.5倍推理效率提升。该方法基于视频帧间冗余和扩散过程熵减特性,设计了阶段性扩散训练框架,在保持视频质量的同时显著降低计算复杂度,为AI视频生成的实用化提供了重要技术突破。
芯片制造商Ambiq Micro在纽约证券交易所首日交易中股价飙升超60%。该公司通过IPO融资9600万美元,售出400万股,每股24美元。总部位于奥斯汀的Ambiq专注于可穿戴设备和电视遥控器等电池供电设备的处理器。其旗舰芯片Apollo510集成CPU和GPU,可运行AI模型并具备网络安全功能。
KAIST研究团队开发出"思维草图"方法,让大型语言模型像人类专家一样进行简洁高效的推理。该方法通过三种认知启发的推理方式和智能路由系统,在15个数据集上实现平均73%的输出减少,同时保持甚至提升推理准确性,为AI应用的效率优化提供了重要突破。