"2025 年将是 AI 代理的元年。"等等——我们不是在 2023 年就说过这句话了吗?当时,我在播客中谈到了 AI 模型的链式连接。人们对 AI 的兴奋度空前高涨,到了 2024 年,许多公司争相尝试生成式 AI,有些甚至使用了链式模型。但这些项目中有许多未能扩大规模。为什么?因为它们只是测试项目,没有集成到系统基础设施中,或者缺乏防护措施和质量控制。这种情况将在 2025 年得到改变,但产品面临的挑战依然存在。要了解 AI 代理在 2025 年能做什么,让我们考虑一个简单的例子:一个自动回复电子邮件的工具。想象一个能自动起草邮件回复的系统。这个例子展示了企业在使用 AI 代理时面临的机遇和挑战。
为什么 GPT 封装器不是企业级 AI
构建邮件回复工具最简单的方法是使用 GPT 封装器。我在 2024 年看到了许多这样的例子。这些基本设置将 AI 连接到一个小型界面。对于我们的用例而言,这意味着获取 ChatGPT API 密钥,编写一些代码来接收邮件作为输入,添加一个提示告诉 AI 该做什么,然后在一个干净的界面上显示响应。
系统提示: 像 Lutz 一样回答。Lutz 总是以"祝好!"结束他的消息。
输入: 嗨 Lutz,邀请你周四共进晚餐。你能来吗?祝好,Tim。
输出: 谢谢,Tim!让我查看一下日程安排,我很快会回复你的。祝好!
即使在这个简单的例子中,当前企业 AI 也面临几个关键挑战:
没有系统集成: 该工具无法查看我的日历来确认我是否有空。
缺乏上下文: 它不知道我是否喜欢 Tim 或避免这类活动。
没有安全保障: 如果邮件询问私人信息,比如我的社会安全号码,该怎么办?
缺乏防护措施: 它如何处理有争议的问题,比如询问政治观点?
缺乏用户控制: 用户在塑造 AI 回复方面有多大的输入权?
幻觉: AI 有时会编造信息,正如 ChatGPT 页面上的警告不断提醒我们的:"ChatGPT 可能会犯错。"
大语言模型在总结或充当界面等任务方面表现出色,但仅凭它们是不够的。正如我在 eCornell 证书课程中强调的,每个挑战都可以得到解决。让我们通过在工作流程中构建 AI 代理来改进我们的工具。
AI 代理的工作流程:不仅仅是生成式 AI
AI 模型可以连接或"链接"以构建工作流程,其中一个模型的输出成为下一个模型的输入。这就像 Zapier 或 IFTTT 这样的工具,但由 AI 驱动。与固定步骤不同,这个过程是动态的,能适应每种情况。这些工作流程并不总是依赖于像 ChatGPT 这样的生成式 AI。实际上,它们经常不依赖——生成式 AI 可能太慢且成本高。
以下是我们的邮件工具可能的工作方式:
输入: 嗨 Lutz,邀请你周四共进晚餐。你能来吗?祝好,Tim。
系统提示: 分析邮件并确定回复所需的步骤。
系统输出: (1) 查看日历,确认用户是否有空。(2) 查找与 Tim 的往来邮件和以往的晚餐邀请。(3) 根据过去的行为预测用户参加的可能性。(4) 创建三份回复草稿:一份接受,一份婉拒,一份询问更多细节。
系统执行: 执行列出的步骤。
输出: 向用户呈现这三个回复选项。
这就是链式 AI 模型的工作方式。它克服了许多早期的问题。但大语言模型只是众多工具中的一个。
所有工具都需要集成和质量检查。例如,我们的设置涉及:
系统集成: 查看日历和提取数据不是 AI,但需要系统连接。
上下文搜索: 使用 AI 检索相关的过往互动(称为 RAG 或检索增强生成)。
传统 AI: 预测参加可能性使用经典的数据分析。
用户设计: 提供多个选项改善了可用性和控制。
简而言之,这是关于产品工作——创造可靠和有价值的解决方案。
2025 年 - 企业级 AI 代理
2025 年将是 AI 代理的一年。AI 将简化、增强或自动化各行各业的工作流程。但不会有一个"杀手级应用"。如果存在这样的应用,它很可能是搜索——请参见我对搜索的预测。相反,我们将看到较小的工作流程应用于客户服务(参见我在 ultimate.ai 的投资)、法律支持(参见 flank.io)或销售(参见我的公司 r2decide.com)等领域。
要构建这些解决方案,工程师和产品经理需要专注于创造价值。在我的课程"设计和构建 AI 解决方案"中,我教授了一个实用框架,用于为媒体、金融、医疗保健、电子商务和其他行业的企业客户创造价值:
1. 定义业务目标。 2. 收集和清理数据。 3. 开发代理工作流程。 4. 与用户测试。 5. 创建反馈循环。
这听起来很简单,但需要考虑许多因素,包括解决偏见和伦理问题等风险。最重要的是,重点必须放在价值创造上。让我们一起构建。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。