Samsara是一家于2021年上市的车队管理SaaS提供商,该公司首席执行官认为,优化AI策略(或任何新兴的技术策略)的唯一方法就是采用自下而上的方法。Franchetti表示:“一年前,当生成式AI爆发时,Samsara一开始采取了相当严格的方法,因为我们不了解这项技术,当时我们的重点是设置护栏以保护隐私和安全。”
但在团队花了更多时间研究这项技术后,他们取消了这些限制。他说:“既然我们已经认识到生成式AI可以带来什么,今年我们的政策就会发生巨大的变化。我们希望这项技术尽可能地接近我们的知识工作者和领域专家,希望赋予他们这些能力,让他们进行实验和创造。”
Franchetti承认,KPI和结果驱动的方法仍然适合许多技术的部署,但“有机的方法更适合AI,因此我们的资深软件开发领域专家可以在没有目标业务成果的情况下展开创新,当然,这些技术必须重新集成到更大的架构中,IT团队可以帮助他们做到这一点。”
在调动员工资源来尝试生成式AI之后,Franchetti开始看到这么做带来的影响。他说:“我们已经看到很多有前途的试点项目正在生产环境中不断迭代。”
他还看到了AI在IT帮助台、客户支持、销售和营销的专用工具中进行概念验证带来的积极成果。他说:“我们也在尝试通用型的copilot,我们发布了几种可供员工尝试的选项,一种是商用大型语言模型服务,另一种是开源服务。”Samsara公司的员工将这些通用助手应用于各种用例,例如编写文档和工作描述、调试代码或编写API端点。
例如,通过使用大型语言模型功能生成代码,这样Samsara的工程师就可以更高效地生成样板代码以及代码文档和注释,这对公司来说是一项关键的实践。Franchetti补充说:“我们有一些工程师的第一语言不是英语,因此把AI引入评论和文档对他们的工作是有帮助的。”
Franchetti花了一年时间研究这种自下而上的AI创新方法,并提出了一些建议:
不要将“全民创造”仅限于工程师的范畴:Franchetti估计,在Samsara公司,工程师只使用了50%的AI,但另一半则用于法律、销售、营销、财务和客户支持。
不要让当前的架构阻碍你:Franchetti承认,像Samsara这样诞生于云端的公司,在AI方面比那些运行在遗留基础设施上的老企业来说有巨大的飞跃,但这并不意味着后者就不能从自下而上的方法中受益。“我相信无论你的架构是怎样的,你的员工都可以进行实验。他们可以通过使用AI生成营销物料甚至是财务对账来提高生产力。他们可以在任何环境中执行此类操作,因为这些特定工具不依赖于与更广泛架构的集成。”
清理企业数据:如果没有清理数据,AI生成的结果就是有局限性的。Franchetti表示:“AI和生成式AI的力量来自于与模型共享上下文的能力,因此模型可以理解你的环境并进行微调,为你提供更好的答案,AI一开始并不了解业务,但当它接受数据训练的时候,就会变成专家。”当数据来自不同的系统以及事实来源相互冲突的时候,AI不具备所需背景以变得更加聪明。
对规模进行选择:随着如此多的全民创造正在进行中,CIO们需要制定一个流程来选择把哪些试点发展成为企业解决方案。为了确保你把时间和金钱花在最有潜力的解决方案上,Franchetti建议要关注结果。他说:“当一个工具做到了我们想要做的事情,我们会问实现了哪些可衡量的业务成果,它会提高客户满意度吗?它会提高生产力吗?提高多少?”
例如,Samsara公司的技术团队在过去几个月中一直在内部IT服务台尝试使用AI。“我们部署了一项由大型语言模型支持的技术,使我们能够在Slack内部署机器人以解决服务台支持的问题。如今,我们有35%的IT支持是完全自动化的。这是一个可衡量的改进结果,使我们的支持工程师能够专注于更高阶的工作上。”取得这些成果后,团队开始尝试类似的客户服务大型语言模型,他们预测,这将使客户支持代理的工作效率提高20%。“现在我们正在扩展和部署这个模型,因为我们已经能够对其进行衡量了。”
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。