ZD至顶网CIO与应用频道 06月14日 专栏:在未来五年,存储、设备、芯片和其他硬件方面的创新将彻底变革IT。下面就是CIO应该开始在他们的战略路线图中考虑的10个新兴硬件技术。
1、强化安全性的移动设备
安全仍然是移动设备面临的一个重大挑战。一种选择是英特尔的Software Guard Extension(SGX)技术,将支持在商用CPU上安全加密内存空间。目标是为应用提供一个安全的区域,保护内存和执行。这对于移动设备来说是一个好处,是企业IT部门对付的主要安全漏洞。“我们将看到新一代的系统解决方案即使是在操作系统或者其他基础设施遭到黑客侵袭的时候也能确保安全,”微软印度研究院助理管理总监Sriram Rajamani这样表示。
2、改善机器学习性能的新芯片架构
随着越来越多的IoT和基于设备的应用步入IT主流,新的芯片架构将改善性能赶超图形处理单元(GPU)的性能。这些性能上的改进将显著提高数据传输速度,以及机器学习和分析的执行表现。
3、无人机
无人驾驶飞行器(UAV)将继续推进到商业应用中,不管是运送包裹,拍摄图片,还是测量难进入的地区地形。无人机通过传感器收集IoT数据,输送到中央通信中心。
4、无人操作机器人
机器人可以执行简单的医疗程序、清洁设施、在仓库中挑选和包装货物。这些自动化机器的智能性将随着新技术的加入越来越强大,收集所有机器学习的知识,传送到一个中央数据库中,让任何机器都可以访问。
5、用户更友好的虚拟现实设备
笨重的头戴设备让VR用户们感到头晕,导致企业不愿意使用VR应用。这种情况即将发生改变。例如,Google将为你的智能手机提供一个小型的手持设备,提供超超过老设备的全景视频体验。越来越舒适的VR头戴设备将为企业更多地采用VR铺平了道路。
6、新的存储技术实现更环保的电网
随着电力公司找到更好的方式无缝融合各种能源,例如太阳能、风能和传统化石燃料,转化为无缝的、不间断的能源供应,数据中心也将变得越来越绿色化。今天,使用混合能源是很困难的,因为像风能和太阳能这样的能源是可变的。但是更好的存储可以解决这个问题,推进着进入一个新的绿色时代,每年可以为数据中心和其他能源用户节约大约34亿美元。
7、更多工作中使用的可穿戴设备
Jupiter的研究预测,智能眼镜、智能手表和一系列动作感应设备可以提高生产力达30%。Gartner预测,到了2018年有200万员工,例如执法人员和医护人员,将要求穿戴健康和健身追踪器。
8、本地能源收集用于互联网访问
有了自动化和大量IoT设备添加到互联网的工作负载中,这时候就需要新技术来增加带宽和准备进行连接。华盛顿大学的研究人员已经开发了能够实现互联网连接的温度和动作传感器、摄像头等技术,通过从就近的TV、广播、手机和WiFi信号手机的能源进行通信。一种被称为反向散射的原则让IoT设备可以收集其他电子设备散发的能量,让他们降低自身的互联网带宽需求。这让本地WiFi的消耗量只是现有WiFi芯片组的1/10000。
9、越来越紧凑的闪存内存
3D NAND技术继续向前发展,提供更小体积更轻巧的笔记本电脑、平板电脑和其他设备。这个进展很大程度上是由于像英特尔和美光这样的企业可以垂直地最占闪存内存单元,节约空间,让设备更轻巧更轻薄。
10、非易失性内存
有了非易失性内存,计算可以可以在断关闭后找回信息。展望未来,我们将看到新型非易失性内存,让数据的保存更廉价、更低功耗。这将让更小体积的设备保存更多数据。
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。