虽然 IT 在现代生活中扮演着核心角色,但对于大多数企业高管和同事来说,IT 的人员和流程仍然是个谜。现在是时候改变这种状况了。
我曾要求一群企业高管拿出一张白纸,画一个大圆圈,并标注为"IT 人员和流程"。然后我让他们在这个圆圈内画一个小圆,代表他们对 IT 人员和流程的了解程度。对绝大多数人来说,这个小圆就像一个小小的句号。
佛罗里达州立大学杰克逊维尔分校和南康涅狄格州立大学退休 CIO Robert Rennie 博士讽刺地指出,一些高管不仅仅是无知,他们还坚持对 IT 工作的错误假设。
IT 顾问、佛罗里达州德尔托纳市前 CIO Steven Narvaez 对一种普遍存在的错误认知表示遗憾,这种认知将 IT 视为一个技术"得来速",高管们"对着扬声器下单,然后开到窗口期待拿到成品"。组织希望有一个"一键式"的技术解决方案,但往往缺乏实现这种"一键式"解决方案所需的耐心、纪律和知识。
关于 IT 是谁、做什么,存在着巨大的认知差距。北美丰田汽车前 CIO、美国顶级 CIO 教练之一的 Barbara Cooper 认为,这种认知差距更像是一个认知"大峡谷"。
理解之路
自 1730 年代以来,英语剧作家和编剧一直使用 dramatis personae(拉丁语,意为"戏剧中的人物")来列出剧本或小说的主要角色。许多高管很难列出 IT 组织中的主要角色。
为了解决这个问题,CIO 需要让 IT 更人性化。我的意思是,组织的其他部门需要将人性化的面孔与 IT 服务工厂的各个方面联系起来。
高管需要了解并希望与以下 IT dramatis personae 建立受人尊重的关系:IT 运营总监、开发总监、CISO、项目管理办公室 (PMO) 总监、企业架构总监、治理与合规总监、供应商管理总监和创新总监。
Element Three 的战略与服务高级副总裁 John Gough 通过 OpenAI 的 o1 模型运行了我的 IT dramatis personae 问题,得到的结果是:"现代 IT dramatis personae 感觉就像一部高品质电视剧中的群星阵容——每个角色都至关重要,每个人都有自己的怪癖和盲点,所有人都在努力(有时也会失败)协同行动。"
这可能有点夸张,但你明白我的意思。业务领导至少需要了解 IT 的主要"群星阵容",而 CIO 有责任帮助介绍他们。
人性化 IT 的另一个方面是通过语言。当 IT 与业务部门交流时,业务部门往往不知道 IT 实际在说什么。这是一个自我造成的伤害。
当今顶级信息管理顾问之一 Priscilla Emery 回忆起她在弗吉尼亚州蓝十字蓝盾保险公司担任项目经理的时候。当时 IT 部门用流行语和技术术语进行沟通。他们采取了两管齐下的补救措施。一方面,IT 部门被建议在与非 IT 专业人士交流时注意使用技术术语。另一方面,更高明的补救措施是为这些非 IT 专业人士开设课程,帮助他们理解 IT 的神秘语言和程序。
这门课程模仿了一个已经成功的实地"医学术语"课程,旨在帮助非临床人员理解医疗术语。在医疗界,能够说和听懂"医学语言"被认为是理所当然的。同理,在一个技术驱动的世界里,人们应该能够说和听懂"技术语言",或者至少有翻译可用。
分裂的 IT 之家
我联系了一些在职业生涯中向 CEO 汇报工作的 CIO。他们一致认为,不到 2% 的 CEO 老板理解整个技术栈的全貌。
IT 顾问/未来学家、《当机器做一切时该怎么办》的合著者 Ben Pring 指出,不仅组织的其他部门不了解 IT,IT 自身也不了解 IT。
在 2017 年一篇有先见之明的文章"IT 的两个分歧部落"中,Pring 向我们介绍了现代 IT 的双重部落主义:
"第一个部落——'原始派'——是那些维护服务器、数据库、编译器代码、以太网电缆,使技术中心的世界运转的人。他们是众所周知的书呆子、极客、数学天才,每当'IT'这个词出现时,他们就会在公众想象中占据重要地位。……
"第二个(新兴)部落——'数字派'——是那些编写约会应用、音乐分发平台、住宿网站、增强现实滤镜、电子游戏和机器学习算法的人。"
Pring 写道,这两个 IT 内部的部落互不理解——"原始派和数字派就是不相容。"
因此,如果连 IT 内部都缺乏理解,CIO 就有很多解释工作要做,而且要面向很多不同的方向。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。