至顶网CIO与应用频道 07月14日 北京消息:过去十二个月里,有关存储技术最新进展的宣传报道一直甚嚣尘上,其中包括新型非易失性存储器(如:三星[Samsung]的Z-NAND以及英特尔[Intel]和镁光科技[Micron]的3D Xpoint)。非易失性存储器标准(NVMe)等新型接口和更现代化的软件也正日益普及,力图减少因过去30年内CPU发展所导致的数据中心IT基础架构不平衡。这些接口可以实现应用程序的低延迟和高性能数据存取,尤其是对于SQL/ NoSQL数据、高性能计算工作负载和大数据应用。
这些创新有望弥合数据中心计算与存储之间的性能差距,但企业需要对围绕这些新技术的宣传炒作保持谨慎。这种未经验证、快速演进的市场变化虽然可以带来好处,但也会为负责IT基础架构规划的管理者带来诸多不确定性。
并行存取的计算与存储之间的更快接口可以降低存储器存取延迟,但这也可能需要企业追加大量的额外投资或开展大规模升级,反而会打破企业IT的更新周期。因此,在将该技术投入生产之前,企业需从供应商处寻求相关保障,以保护投资。
这些技术的累积效应具有深远潜力;但是,它们目前尚在初期阶段。在其潜在收益之外,技术的不成熟和对技术的部署缺乏验证也需要被仔细考量。
实现存储器级内存
为了打造存储器级内存,许多新兴存储技术已经尽力将高性能、成本效益密度与非易失性的持续性结合起来。这一类技术的读写性能更接近动态随机存取存储器(服务器存储),但是它们具有持续性,即在断电时也能存储信息。目前大部分存储技术无法实现这一点。以上每种技术的成熟期都会比最初的预期更长。
目前的挑战是通过引入新层次的存储级内存将动态随机存取存储器和NAND闪存(性能存储)市场的技术和大量级生产规模相结合,从而将两者的属性融合在一起,以期提供一种可扩展的持久存储器技术——该技术可以以每千兆字节几美元的价格实现更接近CPU的访问速度。
软件必须更加轻量化
存储器级内存与高速接口正取得显著进展,其延迟仅数十微秒。但是,在充分利用接口创新功能方面,传统存储软件栈由于其对串行设备的优化,仍是一个限制因素。
传统存储软件针对多线程采用了低效率的锁定机制,降低了其大规模处理并行输入、输出任务的能力。此外,它还增加了级别更高的复杂抽象层,例如在区块与页面而非字节级别处理数据。
为了让存储器级内存应用有效地发挥作用,存储软件必须变得更轻量、开销更低并以更佳的读写速度进行并行存取优化。支持存储器级内存的操作系统、管理程序以及存储软件尚处于演化的初期阶段,市场化进程缓慢。Gartner预计,这些创新技术还需要两年多时间才能发挥其全部潜力。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。