Gartner近日发布了将在2025年对基础设施和运营(I&O)产生重大影响的六个趋势(见图一)。Gartner分析师在Gartner IT基础设施、运营和云战略会议上展示了该研究成果。
Gartner研究副总裁Jeffrey Hewitt表示:“I&O领导者可以根据这些趋势确定未来的技能需求并寻求帮助满足实施要求的洞察。它们将为企业提供在 2025 年从其I&O运营中获得最佳效益所需的优势。”
图 一、Gartner 2025年重要I&O趋势
资料来源:Gartner(2024年12月)
趋势 1:重虚拟化/去虚拟化
近期某些基于厂商的解决方案的许可证发生了变化,这迫使许多I&O团队重新评估其选择的虚拟化方案。他们有的迁移到公有云,有的则转向分布式云和私有云。他们不仅要更换管理程序,还要在多个其他方面做出选择。
Hewitt表示:“I&O领导人必须做的事情包括:清点当前实施的所有虚拟化技术以及任何相关的相互依存关系;评估替代路径,包括管理程序、超融合、分布式云、容器化、私有云和去虚拟化等;确定现有的 I&O 技能以及需要如何发展这些技能才能支持最佳选择。”
趋势 2:安全行为和文化方案
随着网络攻击的日趋复杂和多样,网络安全方案必须不断发展才能解决行为和文化问题并变得更加有效。安全行为和文化方案(SBCP)是一种贯穿整个企业的方法,能够最大程度地减少与员工行为相关的网络安全事件。
SBCP方案可提高员工对安全控制措施的采用率,减少不安全行为,使员工能够借助I&O更有效地利用网络安全资源。
趋势3:网络存储
网络存储解决方案使用分散在多个存储位置的数据组成的数据港,可在需要时立即将碎片数据重新组合使用。
网络存储可以是功能全面的专用解决方案,也可以是带有集成解决方案的平台原生服务产品,还可以是一系列增强存储厂商网络保护功能的独立产品。
Hewitt表示:“要想成功使用网络存储,I&O领导人应确定发生高成本、破坏性存储威胁的风险,并结合不断增加的监管和保险费用,建立推动网络存储使用的商业案例。”
趋势4:液冷基础设施
液冷基础设施分为后门热交换式、浸入式和直接芯片冷却式。借助它,I&O不但能够满足新一代芯片、密度和AI方面的需求,还能够通过灵活放置基础设施支持边缘用例。
Hewitt表示:“液冷技术已经从冷却整个数据中心环境发展到更加靠近基础设施,甚至进入到基础设施内部。目前液冷基础设施用例仍然很少,但随着下一代GPU和CPU功耗与发热量的增加,液冷基础设施将逐渐成为主流。”
趋势5:智能应用
生成式AI展现了应用的智能化潜力,引发了人们对智能应用的期望。智能应用能够适应用户的情境和意图,从而减少数字摩擦。这种应用可通过将合适的接口封送(marshal)到外部API和所连接的数据,按照自身意图和用户意图进行互通。
智能应用最终可以减少I&O方面的干预和互动。它还能在优化流程和提高利用率的同时,减少资源开销。
趋势6:最优基础设施
最优基础设施指 I&O 团队竭尽所能从各种部署方式中选出的最适合特定用例的基础设施。该方法以业务为重点,使IT部门以外的高管能够从他们的角度理解选择基础设施的原因。
Hewitt表示:“这些选择最终与平台工程的使用相吻合,不仅使 I&O能够‘瞄准’整个企业的业务目标选择基础设施,还有助于获得业务部门领导人和最高管理层的支持与批准。”
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。