如果只把这场发布会理解为“Arm 终于自己下场做芯片了”,其实低估了它的分量。更准确一点说,这是一场把 Arm 的公司发展、AI 时代的系统瓶颈、CPU 在 Agentic AI 中的新角色,以及 Arm 自己商业模式变化,全部串起来讲明白的发布会。
Arm在数据中心和AI平台中角色进一步扩展,高性能、高能效的Arm AGI CPU将成为全球规模化AI部署的重要算力支点。
据英特尔技术专家透露,“英特尔已经基于火山引擎第四代计算实例g4il进行了一系列测试,我们现在已经能够做到在一个云实例里,仅使用CPU就可以运行14B的大模型,这个门槛最低可以降到16vCPU或32vCPU,16vCPU在火山引擎官网的定价仅约3.8元/小时。”
AI服务器产业链上游为零部件,包括CPU、GPU、存储芯片、固态硬盘、PCB、被动元器件等;中游为AI服务器;下游为各类应用市场,包括互联网企业、云计算企业、数据中心服务商、政府部门、金融机构、医疗领域、电信运营商等。
随着“Granite Rapids”至强6的发布,英特尔决定放弃使用HBM内存,转而采用其希望推向主流的MCR DDR5主内存。
Al芯片是AI服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,Al芯片按架构可分为GPU、FPGA、ASIC和NPU等。HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。
如果大家正在考虑升级自己的x86服务器机群——目前确实有不少企业、超大规模基础设施运营商和云服务商都在持币参与讨论——那么好消息是,英特尔和AMD均已推出其有史以来最强大的串行计算引擎。
在当下的AI竞争格局下,没什么能比一场AI浓度爆表的大会,更能快速彰显自身实力了,AMD的这场「Advancing AI大会」,就是印证。
正如近期由英特尔和至顶科技组织的 AI Summit·PEC AI新势力专场活动上,来自产学研的参会嘉宾所达成的一致共识是,智能场景无处不在,来自“端、边、云”的智能算力也无处不在。
正如近期由英特尔和至顶科技组织的 AI Summit·PEC AI新势力专场活动上,来自产学研的参会嘉宾所达成的一致共识是,智能场景无处不在,来自“端、边、云”的智能算力也无处不在。
虽然这笔钱并不算多,但足够让AMD的工程师们有机会考虑整个美国的未来,并为如今强大的CPU与GPU业务埋下种子。
在6月13-14日的Arm技术媒体分享日上,多位Arm技术专家聚首一堂,分享了Arm在终端计算子系统(CSS)、CPU、GPU技术以及软件生态的最新进展与战略规划。
面对现实挑战,英特尔决定将其产品线一分为二:其一为传统至强核心(即所谓性能P核),其二为经过改进的Atom核心(即所谓能效E核)。
苏姿丰表示,Zen 5核心是AMD公司有史以来设计出的性能最强、能效最高的核心,而且完全是从零开始打造而成。
Google Cloud近日详细介绍了Axion,一款基于Arm核心设计的、内部开发的CPU。
在生成式AI和LLM狂奔的同时,CPU也在与时俱进,让自己适配客户需求和选择。依托软硬件和生态协同,CPU正在迎来新的高光时刻,推动人工智能行业迈向新的高度,展现出无限的潜力与可能性。
步入AI时代,算力驱动芯片架构的持续创新,而英特尔的CPU也在持续进化,旨在全方位响应时代和客户的需求,让CPU的价值得以体现。
Arm Neoverse数据中心计算路线图刚刚迎来一系列新鲜元素,遗憾的是数据中心级独立GPU加速器仍然缺席。