至顶网CIO与应用频道 07月14日 北京消息:过去十二个月里,有关存储技术最新进展的宣传报道一直甚嚣尘上,其中包括新型非易失性存储器(如:三星[Samsung]的Z-NAND以及英特尔[Intel]和镁光科技[Micron]的3D Xpoint)。非易失性存储器标准(NVMe)等新型接口和更现代化的软件也正日益普及,力图减少因过去30年内CPU发展所导致的数据中心IT基础架构不平衡。这些接口可以实现应用程序的低延迟和高性能数据存取,尤其是对于SQL/ NoSQL数据、高性能计算工作负载和大数据应用。
这些创新有望弥合数据中心计算与存储之间的性能差距,但企业需要对围绕这些新技术的宣传炒作保持谨慎。这种未经验证、快速演进的市场变化虽然可以带来好处,但也会为负责IT基础架构规划的管理者带来诸多不确定性。
并行存取的计算与存储之间的更快接口可以降低存储器存取延迟,但这也可能需要企业追加大量的额外投资或开展大规模升级,反而会打破企业IT的更新周期。因此,在将该技术投入生产之前,企业需从供应商处寻求相关保障,以保护投资。
这些技术的累积效应具有深远潜力;但是,它们目前尚在初期阶段。在其潜在收益之外,技术的不成熟和对技术的部署缺乏验证也需要被仔细考量。
实现存储器级内存
为了打造存储器级内存,许多新兴存储技术已经尽力将高性能、成本效益密度与非易失性的持续性结合起来。这一类技术的读写性能更接近动态随机存取存储器(服务器存储),但是它们具有持续性,即在断电时也能存储信息。目前大部分存储技术无法实现这一点。以上每种技术的成熟期都会比最初的预期更长。
目前的挑战是通过引入新层次的存储级内存将动态随机存取存储器和NAND闪存(性能存储)市场的技术和大量级生产规模相结合,从而将两者的属性融合在一起,以期提供一种可扩展的持久存储器技术——该技术可以以每千兆字节几美元的价格实现更接近CPU的访问速度。
软件必须更加轻量化
存储器级内存与高速接口正取得显著进展,其延迟仅数十微秒。但是,在充分利用接口创新功能方面,传统存储软件栈由于其对串行设备的优化,仍是一个限制因素。
传统存储软件针对多线程采用了低效率的锁定机制,降低了其大规模处理并行输入、输出任务的能力。此外,它还增加了级别更高的复杂抽象层,例如在区块与页面而非字节级别处理数据。
为了让存储器级内存应用有效地发挥作用,存储软件必须变得更轻量、开销更低并以更佳的读写速度进行并行存取优化。支持存储器级内存的操作系统、管理程序以及存储软件尚处于演化的初期阶段,市场化进程缓慢。Gartner预计,这些创新技术还需要两年多时间才能发挥其全部潜力。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
武汉大学研究团队提出DITING网络小说翻译评估框架,首次系统评估大型语言模型在网络小说翻译方面的表现。该研究构建了六维评估体系和AgentEval多智能体评估方法,发现中国训练的模型在文化理解方面具有优势,DeepSeek-V3表现最佳。研究揭示了AI翻译在文化适应和创意表达方面的挑战,为未来发展指明方向。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
参数实验室等机构联合发布的Dr.LLM技术,通过为大型语言模型配备智能路由器,让AI能根据问题复杂度动态选择计算路径。该系统仅用4000个训练样本和极少参数,就实现了准确率提升3.4%同时节省计算资源的突破,在多个任务上表现出色且具有强泛化能力,为AI效率优化开辟新方向。