性能优化 关键字列表
美光推出276层SSD三剑客:兼顾速度、容量与稳定性

美光推出276层SSD三剑客:兼顾速度、容量与稳定性

美光发布三款新一代SSD产品,均采用最新276层3D NAND技术。9650为PCIe Gen 6高速TLC驱动器,最高提供550万IOPS随机读取性能;6600 ION是容量高达122.88TB的PCIe Gen 5 QLC存储产品;7600则是专为低延迟设计的PCIe Gen 5 TLC驱动器。三款产品分别针对AI加速、大容量存储和企业级应用场景,集成美光自研DRAM、控制器和固件技术。

Linux内核6.16发布:代码量达3800万行但缺乏重大新特性

Linux内核6.16发布:代码量达3800万行但缺乏重大新特性

Linux内核6.16在周末发布,虽然没有重大新功能,但包含大量错误修复和代码优化。该版本拥有3840万行代码,分布在超过78000个文件中。主要改进包括:支持英特尔2023年高级性能扩展,XFS和ext4文件系统性能优化,NUMA系统自动调优,五级页表支持,以及USB硬件声音解码卸载功能。这些改进展现了Linux在大型服务器到小型设备的广泛应用范围。

Xinnor声称RAID重建速度远超Linux mdraid

Xinnor声称RAID重建速度远超Linux mdraid

软件RAID供应商Xinnor宣称其技术可在仅五小时多一点的时间内重建61.44TB SSD,速度约为传统Linux RAID重建软件的10倍。Xinnor的xiRAID产品将数据分布在驱动器集群中,每个驱动器上都有备用区域,故障驱动器的数据会恢复到这些区域,从而减少总体重建时间。测试显示,在有主机工作负载的情况下,使用xiRAID重建速度比Linux mdraid快约30倍,且写入放大因子低23%。

三星Galaxy AI大幅提升移动游戏性能表现

三星Galaxy AI大幅提升移动游戏性能表现

三星Galaxy S25系列搭载骁龙8 Elite处理器,AI处理速度提升40%,CPU性能增强37%,图形渲染提升30%。配备40%更大蒸汽腔散热系统,有效防止过热。ProScaler AI图像缩放引擎实时优化视觉效果,游戏模式可定制化设置避免干扰。Audio Eraser功能清理背景噪音,AI电池优化技术延长游戏时间,为移动游戏玩家提供专业级体验。

Iceberg时代来临:StarTree成为采用热门表格式的最新厂商

Iceberg时代来临:StarTree成为采用热门表格式的最新厂商

开源Iceberg正成为数据湖表格式的通用标准,StarTree是最新将其作为实时后端的供应商。StarTree Cloud基于Apache Pinot构建,现可作为Iceberg之上的分析和服务层。该公司声称Iceberg支持能将其从被动存储格式转变为实时后端,为面向客户的应用和AI代理提供高并发服务。与其他查询引擎不同,StarTree专为低延迟、高并发访问而构建,可直接在原生Iceberg表上提供实时查询加速。

DDN推出Infinia存储系统,声称可大幅提升AI推理速度并降低成本

DDN推出Infinia存储系统,声称可大幅提升AI推理速度并降低成本

DDN发布性能基准测试显示,其Infinia存储系统通过优化中间KV缓存处理,能够将AI处理速度提升27倍。该系统专为英伟达H100和GB200等GPU设计,提供亚毫秒级延迟,支持每秒超10万次AI调用。在112000令牌任务测试中,传统重计算方法需57秒,而Infinia仅需2.1秒。DDN称该技术可削减输入令牌成本75%,为运行1000个并发AI推理管道的企业每日节省8万美元GPU成本。

铠侠UFS 4.1闪存承诺提升AI应用性能表现

铠侠UFS 4.1闪存承诺提升AI应用性能表现

铠侠正在测试最新的UFS v4.1嵌入式闪存芯片,专为智能手机和平板电脑设计,可提供更快的下载速度和更流畅的设备端AI应用性能。该芯片采用218层TLC 3D NAND技术,提供256GB、512GB和1TB容量选择。相比v4.0产品,随机写入性能提升约30%,随机读取性能提升35-45%,同时功耗效率改善15-20%。新标准还增加了主机发起碎片整理、增强异常处理等功能特性。

AMD在AI领域持续发力,仍有大量工作要做

AMD在AI领域持续发力,仍有大量工作要做

在AMD AI推进大会上,CEO苏姿丰展示了公司在AI硬件和软件方面的显著进展。新一代MI350系列GPU性能提升4倍,高端MI355X在内存、计算吞吐量和性价比方面均优于英伟达B200。公司计划2026年推出Helios机架级平台,ROCm 7推理性能提升3.5倍。尽管在GPU训练、TCO优势等方面表现良好,但在NIMs微服务、企业级GPU市场渗透等领域仍需加强,以进一步缩小与英伟达的差距。

Voltron Data力推AMD,为GPU加速SQL注入新动力

Voltron Data力推AMD,为GPU加速SQL注入新动力

Voltron Data宣布其加速SQL引擎Theseus将支持AMD Instinct GPU,这标志着英伟达CUDA护城河正在变浅。Theseus使用GPU加速SQL查询,能高速处理大量数据。随着企业寻求利用AI,快速处理大量数据变得越来越重要。AMD投入大量资源构建开源软件栈以缩小与英伟达的差距,最新版本基于AMD的hipDF库。早期基准测试显示AMD平台性能表现良好,生产支持预计今年底推出。

GSO:用于评估SWE-Agent的挑战性软件优化任务基准

GSO:用于评估SWE-Agent的挑战性软件优化任务基准

这篇论文介绍了GSO(Global Software Optimization),一个用于评估大语言模型在软件性能优化任务中能力的基准测试。研究团队从真实代码库中提取了102个优化任务,涵盖10个代码库和多种编程语言。实验结果显示,即使最先进的AI编程助手在这些任务上的成功率也低于5%,表明软件优化对当前模型仍是巨大挑战。研究分析了失败模式,包括低级语言处理困难、懒惰优化策略和瓶颈定位不准确等问题,为未来研究提供了明确方向。

OpenAI 表示 GPT-4.1 模型现已在 ChatGPT 中上线

OpenAI 表示 GPT-4.1 模型现已在 ChatGPT 中上线

OpenAI 按用户需求在 ChatGPT 推出全新 GPT-4.1 及其 mini 与 nano 版本,专注提升编程、指令理解与长文本处理能力,免费及付费用户均可体验。

MediaTek 推出高端新品:Kompanio Ultra 和 Dimensity 9400+

MediaTek 推出高端新品:Kompanio Ultra 和 Dimensity 9400+

联发科最近发布了新款高端芯片 Kompanio Ultra 和天玑 9400+,进一步完善其产品线。Kompanio Ultra 为 Chromebook 带来全新性能水平,天玑 9400+ 则在天玑 9400 基础上小幅提升。这些产品强化了联发科在智能手机和 Chromebook 市场的竞争力,同时展示了公司在 AI 和高性能计算领域的持续发力。

中国燕融将 KVCache 集成到文件系统以加速 AI 推理

中国燕融将 KVCache 集成到文件系统以加速 AI 推理

中国存储软件供应商燕融科技将KVCache整合到其文件系统中,显著提升了KV缓存命中率和长上下文处理能力,降低了AI推理成本。通过在GPU服务器集群中部署分布式内存层存储元数据,燕融的YRCloudFile系统实现了高并发查询吞吐量,为推理工作负载带来了明显的性能提升。测试结果显示,该技术在首个令牌生成时间和并发查询支持方面均有数倍的改进。

Google 推出第七代 Ironwood TPU 芯片,借助 AI 进行性能对比

Google 推出第七代 Ironwood TPU 芯片,借助 AI 进行性能对比

Google宣布第七代张量处理单元(TPU)芯片即将向云客户开放租用,可提供256或9216芯片的集群。新一代TPU在内存带宽、算力和能效方面都有显著提升,专为大语言模型推理设计,每个芯片具有192GB高带宽内存。Google称9216芯片集群的AI算力可达42.5 exaFLOPS,远超现有超级计算机。

联发科发布新芯片,使 Chromebook 具备 AI 助手运行能力

联发科发布新芯片,使 Chromebook 具备 AI 助手运行能力

MediaTek 推出新一代 Kompanio Ultra 芯片,专为 Chromebook 设计。这款芯片不仅提升了性能和电池续航,更重要的是增强了生成式 AI 能力,使得价格亲民的 ChromeOS 笔记本电脑也能运行先进的 AI 助手。MediaTek 与 Google 密切合作,确保新芯片能充分发挥 Chromebook Plus 设备的下一代 AI 功能。

Nvidia 新推出的工具让本地 AI 计算变得轻而易举

Nvidia 新推出的工具让本地 AI 计算变得轻而易举

Nvidia 推出全新 AI 工具套件 NIM 微服务,让拥有 RTX 显卡的用户能够在本地轻松运行 AI 模型。这套工具支持文本、图像和代码生成等多种功能,不仅可以节省长期使用成本,还能确保数据安全性。该举措体现了 AI 本地化运算的发展趋势,也展示了 Nvidia 在 AI 领域的领导地位。

AMD 发布第五代 Epyc 嵌入式处理器,面向网络、存储和工业边缘领域

AMD 发布第五代 Epyc 嵌入式处理器,面向网络、存储和工业边缘领域

AMD 发布第五代 Epyc 嵌入式处理器,采用 Zen 5 架构,专为网络、存储和工业边缘计算优化。新处理器在性能、能效和嵌入式特性方面均有提升,可支持高达 192 核心,内存容量达 6TB,并提供 7 年产品制造支持。多家行业合作伙伴已开始采用这一新产品。

Meta 通过 eBPF 技术实现服务器计算效率提升 20%

Meta 通过 eBPF 技术实现服务器计算效率提升 20%

Meta公司通过使用基于eBPF的Strobelight性能分析套件,成功将其主要服务的CPU使用率降低20%。这一成果不仅大幅减少了服务器需求,还展示了eBPF在系统优化和效率提升方面的巨大潜力。eBPF作为一种创新技术,正在revolutionizing操作系统内核级编程,为企业带来显著的性能提升和成本节约。

M3 Ultra GPU 性能对比 M4 Max:究竟快多少?

M3 Ultra GPU 性能对比 M4 Max:究竟快多少?

Apple 最新推出的 M3 Ultra 芯片 GPU 性能表现出色,比 M4 Max 快 38%,比上一代 M2 Ultra 快 16%。在 Metal 测试中得分高达 259668。CPU 性能方面,M3 Ultra 多核性能小幅领先 M4 Max 8%。新款 Mac Studio 已开启预订,将于 3 月 12 日正式发售。

OpenAI 的 GPT-4.5 AI 模型向更多 ChatGPT 用户开放

OpenAI 的 GPT-4.5 AI 模型向更多 ChatGPT 用户开放

OpenAI 已开始向其 ChatGPT Plus 用户推出最新的 AI 模型 GPT-4.5。OpenAI 在 X 平台上发布的一系列帖子中表示,此次推出将持续“1-3 天”,并预计速率限制会有所变化。