脆弱的项目管理技能,错过的时间线,敏感的员工——其中的任何一条都可能破坏你羽翼未丰的DevOps环境。
DevOps混合了任何由公司应用开发和系统运营团队一起执行的任务。这简单的定义掩盖了向DevOps环境过渡的复杂性。真的,CIO们向DevOps过渡所面临的潜在问题很多。这些地雷所在范围从技术(比如测试环境或架构的错误)到文化(比如高估速度而低估质量),再到管理(没有获得执行官的支持)。
这里,我们的专家列出了在向DevOps环境过渡时易犯的四种常见错误,并指出如何避免它们:
错误1:被DevOps标题所迷惑
当技术执行官建立他们DepOps能力时,常常是从雇佣DevOps工程师开始。这不一定是最佳方法。DevOps工程师通常会偏向于DevOps技能的某一个方面。也就是说,更倾向于运营或者偏好开发,Shalom Berkowitz说。他是技术人事公司Mondo负责技术招聘的初级团队领导。
首先评估你的DevOps环境需要什么技能,并在寻找候选人时特别提及。譬如,说明在Linux中的经验需要,或者Ruby的知识,或者Puppet的合格记录,而不是招聘泛泛的DevOps人才,并假设申请人有符合需求的经验。
错误2:忽略时间线
无可否认,传统的瀑布式方法下工作更加封闭,更有秩序,James Stanger说,他是非营利性贸易协会CompTIA的高级产品主管。 相较而言,DevOps从本质来看就有让人混淆的可能,因为“每人都能影响到其他人的工作,”他说。 “引起的混乱会影响合理化开发,”Stanger说。也可能招致范围蔓延,因为每人都有可能在他们迭代时添加他们自己的好想法。 “他们会倾向于认为那不再是线性的,不再有时间线,我们只是一起工作,”他说。 经理需要在DevOps环境中坚持强烈的项目管理原则,忠诚于文档和截止日期以避免失控项目。 “发生变化的是实施时间表,不是对时间线的需要,”他补充道。“你在以更加循环的方式做事情,但是你仍然要朝着时间线前进。”
错误3:过快过多地向DevOps过渡
Jay Lyman是451 Research 的DevOps&IT Ops开发部门的首席分析师,他说他和他的同事们已经看到,组织将DevOps原则应用到太多的项目和/或太复杂的项目上,直到DevOps团队有足够的经验和专业知识来管理这些项目。 Lyman建议企业从小的开始,先将DevOps应用到一些容易实现的目标----通常是新的方案或者新的应用----来建立起所需的技能和流程。 他补充说,许多组织通过寻求和借鉴他们的网络运营和移动团队的战略实现了早期的成功,因为这些领域的性质,它们已经快速迭代和使用了DevOps原则。
错误4:忘记反馈回路
反馈回路驱动DevOps,但有时候关键利益相关者(例如数据库管理员和安全专家)被排除在外,导致一个有缺陷的最终产品,Lyman说。 “确保这个反馈循环中没有缺失链接,因为让这些利益相关者参与是你进步的方式,”他说。 同样,Stanger表示,组织需要帮助他们的DevOps人员了解反馈的重要性,并确保他们不会将其视为无端的批评。 “反馈不能被视为一个负面的事情,它必须被视为一个机会,以解决需要改进的事物,”他说。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。