数字化转型必须成为组织的一个核心能力,这是给CIO和IT领导者的一条重要建议。
战略优先事项每两年或更短时间就会发生重大变化,从2018年的增长,到2020年的新冠疫情和远程办公,再到2022年的混合办公模式和财务限制问题。
生成式AI(包括ChatGPT和其他大型语言模型)所带来的影响,将成为2024年的一个重大转型驱动力。
当CIO们开始为2024年预算和数字化转型优先事项做准备的时候,有必要制定一项战略以找机会改进业务模式、看准近期运营影响、对员工应该试水的项目进行优先级排序、并制定与AI相关的风险缓解计划。
但伴随着所有这些兴奋和炒作,员工很容易将时间投入到会泄露机密数据的AI工具上,或者管理者很容易选择那些尚未经过安全、数据治理和其他厂商合规审查的影子式AI工具上。更大的挑战是,要制定一个切合实际的战略,并对“不可能的梦想家”做出回应。这里,“不可能的梦想家”是一种“要一步登天”的商业领袖,是一种地狱级的商业高管。
塔塔咨询服务公司首席信息官Abhijit Mazumder表示:“转型优先事项应该能够从根本上与业务优先事项、以及各个组织想要实现的目标联系起来。在大多数企业中,领导层同样也关注增长和运营效率,但同时不会忘记优先考虑弹性、网络安全和技术债务消除计划。”
以下就是CIO们在制定数字化转型优先事项时需要考虑的几个生成式AI的驱动因素。
制定一项改变游戏规则的大型语言模型策略
生成式AI和大型语言将会给每个行业带来怎样的影响,举例来说:
SnapLogic公司首席技术官Jeremiah Stone表示:“现在,CIO和CTO不仅要发挥创意,以更少的资源做更多的事情,还要经过深思熟虑的投资来超越竞争对手,因为他们的竞争对手可能会推迟或削减自己的转型项目。优先考虑那些能够创造新收入来源、推进技术普及或者能减少技术债务的转型举措,特别是考虑生成式AI带来的机会。”
CIO们可能会认识到,这种规模的转型计划是长达多年的计划,需要评估大型语言模型的能力、进行试验、寻找最低可行度且足够安全的客户产品。但完全不制定战略则可能会导致混乱,而IT领导者在参加董事会会议时可能犯的一个关键错误就是,完全没有制定针对生成式AI等改变世界的新兴技术的计划。
为私有大型语言模型清理和准备数据
生成式AI将提高企业非结构化数据的重要性和价值,包括存储在学习管理系统中的文档、视频和内容。即使企业还没有准备好利用生成式AI来变革他们所在的行业和业务,积极主动的转型领导者也会采取措施集中、清理和准备非结构化数据,以供大型语言模型使用。
Domino公司数据科学战略和布道负责人Kjell Carlsson表示:“随着整个组织的用户强烈要求把生成式AI功能作为日常活动的一部分,CIO、CTO和CDO的首要任务就是要实现对越来越多的生成式AI模型的安全且可扩展的访问,并让数据科学团队开发和实施针对组织数据和用例量身定制的大型语言模型。”
现在出了ChatGPT之外已经有14个大型语言模型,如果你有大型数据集,你可以使用Databricks Dolly、Meta Llama和OpenAI等平台定制专有的大型语言模型,或者从零开始构建自己的大型语言模型。
定制和开发大型语言模型需要强大的商业案例、技术专长和资金。New Relic公司首席设计和战略官Peter Pezaris表示:“训练大型语言模型的成本可能极高,而且输出结果尚未完善,因此领导者应该优先投资于那些有助于监控使用成本和提高查询结果质量的解决方案。”
通过改善客户支持来提高效率
麦肯锡早在2020年的时候就预计,每年人工智能可以创造1万亿美金的价值,其中客户支持是一个重要的机会。如今,由于生成式AI的出现,这个机会变得更大,特别是当CIO们把非结构化数据集中在大型语言模型中并使服务代理能够询问和回答客户问题的时候。
SPR公司高级副总裁Justin Rodenbostel表示:“要寻找机会利用GPT-4和大型语言模型来优化客户支持等活动,特别是在自动化任务和分析大量非结构化数据方面。”
改善客户支持是通过大型语言模型和AI搜索功能提供短期投资回报的一种快速通道。大型语言模型需要集中企业的非结构化数据,包括嵌入在CRM、文件系统和其他SaaS工具中的数据。一旦IT部门集中这些数据并实施大型语言模型,那么还有可能改进销售线索转化和人力资源入职流程等方面。
GetK3公司总裁、首席执行官Gordon Allott表示:“几十年来,企业一直在把数据填充到SharePoint和其他系统中,而通过清理这些数据并使用大型语言模型,实际上很可能是很有价值的。”
通过围绕大型语言模型的沟通来降低风险
生成式AI领域有100多种工具,涵盖了测试、图像、视频、代码、语音等类别。那么是什么阻止了员工尝试一款工具并将专有信息或其他机密信息粘贴到他们的提示内容中呢?
Rodenbostel建议:“领导者必须通过研究和制定可接受的使用政策,确保其团队仅以经批准的恰当方式使用这些工具。”
有三个部门,是CIO必须与CHRO还有CISO展开合作、沟通政策并创建支持智能实验的治理模型。首先,CIO应该评估ChatGPT和其他生成式AI会给编码和软件开发带来怎样的影响。IT部门必须以身作则,明确在何处、如何进行试验、以及何时不使用工具或专有数据集。
营销部门是第二个需要关注的,营销人员可以在内容创建、潜在客户开发、电子邮件营销和十多种常见营销实践中使用ChatGPT和其他生成式AI。目前已经有超过11000种营销技术解决方案可供使用,因此在使用新的大型语言模型功能测试SaaS的时候,有大量的机会去进行试验并犯下无意的错误。
领先组织的CIO们正在创建一个注册表来加入新的生成式AI用例,定义审查方法的流程,并集中管理AI实验带来的影响。
重新评估决策过程和授权
还有一个需要考虑的重要领域是,生成式AI将如何影响决策过程和未来的工作。
在过去十年中,很多企业的目标是通过实现数据访问民主化、对更多商业人士进行全民数据科学培训、以及灌输主动的数据治理实践来成为数据驱动型的组织。生成式AI释放了新的能力,让领导者能够提示并快速获得答案,但及时性、准确性和偏见是许多法学硕士的关键问题。
Appen公司企业解决方案副总裁Erik Voight表示:“将人类置于人工智能的中心,并围绕数据使用和模型可解释性建立强大的框架,将大大有助于减少这些模型的偏见,确保所有AI输出都是道德的、负责任的。现实情况是,在关键决策方面,AI模型无法取代人类,应该将其作为补充,而不是让它们完全接管。”
CIO们应该寻求一种平衡的方法来优先考虑生成式AI计划,包括定义治理、确定短期效率、以及寻求长期转型的机会。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。