Gartner发布了未来12至18个月将对基础设施和运营(I&O)产生重要影响的六个趋势。
Gartner研究副总裁Jeffrey Hewitt表示:“I&O领导者缺少时间、技能和预算来跟踪新兴趋势及其对I&O的全面影响。”“他们应参考2024年影响I&O的重要趋势,确定哪些新兴趋势最有可能影响所在企业机构,并采取有效的应对策略。”
2024年影响I&O的重要趋势包括:
趋势1:机器客户
机器客户指支付费用换取商品或服务的非人类经济行为体,例如虚拟个人助理、智能家电和智能网联汽车等。Gartner预计,机器客户的数量今后将稳步上升。到2027年,发达经济体将有50%的人口每天使用个人AI助手。
Hewitt表示:“机器客户具备强大优势,激发了人们的兴趣和采用热情。但同时,这一趋势也给企业带来了挑战,例如需要重新构建运营和业务模式等。”“I&O领导者应确定适合的机器客户用例及其所需的技术流程和技能,并围绕数字商务和生成式人工智能构建能力,为此类用例提供最佳支持。”
趋势2: AI信任、风险和安全管理(AI TRiSM)
AI TRiSM能够支持AI模型治理,改善模型的可信度、公平性、可靠性、稳健性、有效性和数据保护。I&O部门必须落实并支持AI所需的新型风险和安全管理。Gartner预测:到2026年,成功实施AI TRiSM的企业机构,其AI模型的采用率、业务目标达成度和用户接受度将提升50%。
Hewitt表示:“AI TRiSM不仅可以提高AI的实施效率,而且有助于防止由AI的潜在问题引发的财务、监管、社会和道德后果。”
趋势3: 增强型互联员工队伍
增强型互联员工队伍指通过对技术服务和应用进行有意识的管理、部署和定制化调整,提升员工队伍的体验、福祉和发展自身技能的能力。该方法可以加快新员工的入职速度并推动业务成果,从而对关键利益相关者产生积极影响。
Hewitt表示:“对于I&O而言,这是一种相对较新的思维方式。要采纳这一思维方式,I&O部门不仅需要培养新技能并建立新的工作流视角,还需要在I&O以及IT部门之外开展合作,且这种合作的实现有赖于对IT部门之外具体事项的关注,部分情况下还需要其他部门高管的参与。”
趋势4: 持续威胁暴露面管理(CTEM)
CTEM计划是一套综合、迭代的方法,旨在确定潜在威胁的优先级别并不断改善安全态势。随着技术的发展,企业的攻击面不断扩大,威胁暴露面也超出了一般IT环境的范围,因此需要新的方法来应对潜在威胁。CTEM作为一种新方法,专注于对威胁暴露面进行优先级排序,而不是修复所有漏洞。
Hewitt表示:“CTEM实现了方法的转变,从单纯的预防性方法转向了更加成熟、具备检测和响应能力的战略增强型预防控制手段。”I&O部门应在内部组建一支CTEM团队,负责应对本地基础设施以及云和边缘存在的漏洞。
趋势5:生成式人工智能全民化
生成式人工智能(GenAI)使用会话式界面和自然语言,可推动知识和技能的全民化。Gartner在2023年9月对1400名高管进行了一项调查。调查发现,55%的企业机构正在开展GenAI试点或已将其用于生产环境。云计算与开源模式的融合,正在推动GenAI产品迈向全民化。对于I&O而言,GenAI的影响主要体现在两个方面:GenAI在I&O领域的使用,以及GenAI对于I&O工作的影响。
Hewitt表示:“生成式人工智能全民化提供了一种新的工作范式,可以提高I&O的敏捷性、适应性和可组装性。”“但同时,对于GenAI的过度或超出需求的使用,可能会引发不可接受的成本并对环境造成负面影响。”
趋势6: 民族主义与全球主义
民族主义与全球主义包含由国家主导的旨在减少对外来产品、人才和服务依赖性的举措。国际冲突使人们开始关注更具民族主义倾向的技术观点,此类观点推崇更加本土化的技术策略,这将给I&O团队带来压力,迫使他们寻求能够将更多技术、资源和人才留在本国的解决方案。
Hewitt表示:“目前已有许多旨在影响IT资源重心的举措,从此前的全球化视角转向了更具民族主义倾向的策略。这些举措蕴含的转变会给目前使用境外供应商的国家带来新的风险。”“I&O领导者应明确企业当前存在的依赖关系及其蕴含的风险,并带头制定行动计划,以应对国家相关法规和政策可能发生的重大变化给自身带来的影响。”
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。