Gartner市场研究分析师Donna Scott表示,利用云计算来获得诸如快速启动创新业务项目和降低IT管理成本等优势,对人和技术都同样具有依赖性。
Scott在最近的一次CIO网络研讨会上说,三个关键的云角色将有助于确保云计算以其公共,私有和混合形式在组织中获得成功并帮助推动业务成功。
云战略
第一个角色是由云战略和架构组发挥的。该团队通常在IT架构和战略办公室工作,负责制定云战略,例如企业的云计划的范围,寻求的业务成果以及确定应该将什么移动到公有云,如Amazon Web Services和Microsoft Azure这样的提供商,什么应该放到私有云,什么适合软件即服务应用。
但是,该团队不仅仅负责制定云战略,Scott说。它的工作还在于创造云应用程序的外观和感觉,以及在设备故障或断电情况下如何恢复,即所谓的弹性。该团队还应该设计“重用”,概述开发人员可以遵循的标准和管理角色,以快速构建新的云应用程序。 该团队无法让实际的云应用程序启动和运行,Scott说。
这应该属于交付管理团队,由其将产品和流程置于用户手中。 但是云战略组“将指导交付管理组织如何将应用程序上载到公共或私有云,”Scott说, “或者,可以寻求一种混合,其中用户界面在公共云中,数据在私有云中。
云管理
第二个关键的云角色对于大多数组织来说属于新角色,Scott说。该角色称为云产品经理,其向服务管理部门产生报告,确保IT服务的连续性。 许多组织都有产品经理来负责工作场所服务——员工需要通过手机、电脑和进程完成工作。
产品经理必须了解市场并确保一切都可操作。 云产品经理也为公司的云产品和服务做同样的事情。 “他们决定是在内部还是外部做事,你的竞争力是什么,”Scott说。
他们解决了“你应该在公共云上使用哪些服务?你应该在私有云上公开哪些服务?你将如何逐渐发展这些服务?” 云产品经理还负责将安全管理构建到可以监控的云服务中。
因此,如果开发人员更改组织的数据库来访问互联网,如果不经允许,可以及时捕获,Scott说。
云产品经理的工作包括确保云服务中内置了安全特性——这是安全难题的一个重要部分。此流程图可以帮助组织来完成安全策略。
财务指导
第三个云角色是IT财务,“云计算成功的一个非常重要的部分,”Scott说。该团队通过规划和治理,帮助云产品经理制定损益表,列出公司收入和费用,并帮助他们确定是否进入公有云而不是利用私有云来保持企业的竞争力。
“或者如果你想让它在内部工作,你可能需要重新设计基础设施和私有云的架构,以更低的价格点驱动,”Scott说。 IT财务部门还有助于优化云成本,并且在公共云和私有云的运作方式不同。
在私有云中,如果开发团队让虚拟机在不使用时仍保持运行,公司不用花更多的钱,Scott说。而忘记在公共云中关闭虚拟机就是另一回事了。 “你可能会发现你有过多的成本,你可能会发现你的自动扩展规则太积极了,”Scott说。 这就是为什么IT财务的监督和援助是必要的。 “在公共和私有云端,优化成本至关重要。”
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。