为Carlyle Group——一家2000亿美元的全球股本和资产管理公司解决方案部门的CIO,Suhit Gupta的职责是确保他的公司可以应对市场上的颠覆性技术,并保持竞争力。在任何颠覆者和被颠覆者之间的战斗中,他都想成为前者。
最近,Gupta注意到的一个颠覆性技术,就是人工智能(AI)。在哥伦比亚大学完成博士学位时,作为项目的一部分,他曾对该技术进行过学习。Gupta对这个话题非常感兴趣,Carlyle Group也是如此。事实上,出于多种目的,公司正在研究人工智能实施的可行性,Gupta最近在纽约的AI峰会上说:判断世界性事件会如何影响金融投资组合的风险评估,对公司正在考虑的潜在交易进行评估的方法是抓住机会,提高“交易量”——投资公司接收到的业务提案的比例。
目前,人工智能的颠覆性源于两大原因,Gupta说,首先,技术的增长,已经大大增加了企业可以使用的数据,而数据分析已经成为一个“人们信任的已知领域。这有助于AI的加速发展。”第二,过去人工智能技术被认为是一个黑盒子——逻辑很难解释,内部运作也不透明——在过去的两到四年,机器学习模型变得更加透明。
“现在的系统更友好。管理数据也更容易,”Gupta说。
Josh Sutton是咨询公司Publicis.Sapient的AI业务主管。他也在AI峰会上发言,并回应了Gupta关于颠覆性技术的警告。引用即将发布的Publicis.Sapient的调查报告,他说,“那些拥有最先进的数字化转型观点的领导人,已经在他们的企业内整合数据孤岛,并且相信在未来五年内,他们的行业有3/4的可能将由颠覆者来领导。”
强有力的证据表明, 颠覆性技术可以颠覆整个行业——比如,经常被引用的Airbnb和Uber——Gupta感到很困惑,为什么通常企业高层面对这样的危机反应都那么慢。“对于我们而言,全面性颠覆是如此明显,来得如此快速和迅猛,忽视它的成本是如此严重,为什么企业高层却没有快速进行投资呢?”他问道。
他认为,是因为企业想要维持现状。“企业通常管理风险,而不是接受风险,”他还补充说,公司倾向于针对改变采取行动,引用Salim Ismail提出的一个概念,他是硅谷智囊团,Singularity University的创始人之一:“当你想要做一些颠覆性事件时,企业的免疫系统就会试图攻击你。这真的很悲哀。”
此外,人工智能的实施还有其他障碍,Gupta说。
• 成本。 如果企业选择将软件安装在自己的主机上,而不是放在云端,除了软件的最初费用支出外,还有支持软件的硬件成本。另一项大的成本则是,当业务流程发生改变时,人工智能系统的持续培训。
• 文化冲突。“当你和企业高层交流,他们已经在他们的职位上工作了30多年,并且一直很出色。而你却在告诉他们,你可以与他们合作,并且帮助他们。他们的反应是,‘这个人是谁,他凭什么告诉我,他能比我更胜任我的工作?’”
• 过多的技术选择。有太多潜在的服务了,要缩小范围,在预算内找到合适的那个是很困难的。
• 无法精确预测ROI。 “人工智能在某些方面还处于实验性”很难准确判断它对于一个项目能带来多少改进,他说,“让人们理解这个概念…是一个潜在的障碍。”
要克服这些AI障碍,说服公司管理层对AI进行投资,Gupta提供了两种可能的方案。他将第一种方案称为“震惊和敬畏,让他们感到害怕,”IT领导人要指出不投资新兴技术的危险,商业大师David S. Rose——这位企业家和天使投资者曾经说,“任何想要在20世纪取得成功的公司,注定在21世纪是要失败的。”
第二种实现人工智能实施的方案:使用教育和说服,取代恐吓战术。IT领导人需要与公司管理层讨论人工智能的潜力,让他们对这种潜力和概念产生共鸣。Gupta建议从描述AI如何为业务运营带来具体改进开始。比如,在Carlyle Group,“我们试图尝试……投资者关系自动化。像你们中的很多人一样,我们有一个投资者的门户网站,人们可以登录,并且可以获得相关的信息。但是如果他们想要自定义一份资产报告,通常价值数十亿美元,并且以不同的形式分散,这就会很困难,我们经常需要构建一个定制的报告,” Gupta说。人工智能可以为Carlyle自动化这样的报告。“我们可以获得更好、更快的报告,并且增加客户满意度。这些都会让企业高层产生共鸣。”
一旦管理层批准了AI投资,Gupta建议:
• 从小做起。“小的概念证明比宏伟愿景更有说服力,”Gupta说。
• 选择“快速失败”项目。有两个原因,他说:“如果进展不顺利,你有机会快速更正。并且,快速失败项目会变成很多小模块,你可以检验是否会成功。”
• 让利益相关者参与其中。将你的成功和失败都告诉他们,让他们参与到项目中来。
• 尽可能的得到帮助。“不要只依靠自己,求助他人,”Gupta说。
最后,他说,创新技术的支持者“需要意识到机会,尽管有不少阻碍,我们还是可以说服企业高层的。”如果企业高层并不重视,就不会有进展。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。