Alphabet前首席负责任技术战略官Salima Bhimani表示,IT领导者需要考虑AI如何使他们的组织和整个人类受益。
Salima Bhimani多年来一直提倡以负责任和合乎道德的方式使用AI,她在2017年至2023年期间担任Alphabet首位首席战略官兼包容性和负责任技术、业务和领导者总监。

Alphabet前首席负责任技术战略官Salima Bhimani
在谷歌母公司Alphabet,她和Waymo、Wing以及X等公司合作,塑造可持续业务和全球影响力。她现在是咨询公司10Xresponsibletech的首席执行官,专注于帮助组织设计、整合和采用符合业务且负责任的AI战略。
在最近的一次采访中,Bhimani谈到了以有道德的方式采用AI的重要性,以及这将如何造福于人类和个体组织。她说,AI和其他先进技术有可能为全人类创造巨大的利益,包括解决健康和信息不平等等棘手问题,但厂商和用户需要以新的方式思考IT。
她说:“我们面前的机会不仅仅是驾驭AI的浪潮,我们还必须考虑我们从未考虑过的那些事情,比如道德,并将其视为帮助我们推动这项技术的机会。”
她认为,在很多情况下,IT领导者和公司专注于创新,包括对用户和客户的利益,但他们应该更广泛地考虑全球影响。
“过去,围绕技术的动机一直是创新,可能是为了服务人类、造福世界和打造优质产品而进行创新。现在,我们必须将创新视为一种真正重塑世界的方式,让世界为每个人服务,这不是一项慈善呼吁,而是呼吁利用技术加速人类向积极的方向发展。”
您专注于让Alphabet和新公司以有道德的方式使用AI,那么您能定义一下“有道德的AI”吗?
对我来说,这个定义有三个重要组成部分。首先是消除危害,从而确保我们正在构建和集成的AI系统不会无意中加剧人们可能面临的现有挑战或造成新的危害。
第二是扩大利益。我们往往将重点放在危害方面,但扩大利益也是有道德AI中一个重要组成部分。我的意思是,如果我们整合AI,我们是否确保它实际上会成为我们员工的合作伙伴,扩大使用范围和在公司内的影响力,而不仅仅是消除职位?我们希望这是一个有益的、广阔的机会。
最后一点是,我们正在与人类建立共生的AI系统。人们说AI是自我构建的东西,这有一定的道理;但实际上,它仍然是由人类构建的。系统与人类的需求和愿望之间存在共生关系,我们需要在持续的基础上有意识地做到这一点。因此,即使我们的AI系统可以使用最初输入的数据来创建新的数据集,我们也希望确保对此进行了治理,并且人们真正参与到这一过程中。
为什么CIO、CAIO和其他IT领导者应该为他们的组织追求有道德的AI?对他们和他们的组织有什么好处?
CIO的角色正在发生变化。过去,CIO的工作重点是保持灯火通明、管理基础设施、确保系统稳定,或者只是确保集成正在进行。而现在,我们谈论的是成为组织内的战略远见者。我们是否在制定和业务目标相一致的AI战略?我们是否在挖掘AI给我们带来的机会?
CIO和CAIO的角色是把业务与技术联系起来,道德部分将变得至关重要。我们如何将这项技术的好处扩展到我们作为企业试图实现的目标?它会给我们带来新的商业机会吗?它会降低风险吗?它会推动创新吗?
另一个问题是,它会吸引顶尖人才吗?一些研究表明,顶尖的AI人才确实有兴趣与考虑道德因素的组织或公司合作。
如果我们正在开发的产品或AI系统会产生偏见,我们可能不得不倒退回去,因为这会造成品牌和声誉问题。现在CIO或者CAIO的覆盖范围非常广,他们不仅要考虑技术与业务的协调,还要考虑社会风险影响以及社会利益和机会。
您是否担心最近对多元化、公平和包容性 (DEI)政策的政治阻力?忽视与AI相关的道德和平等问题,会产生什么影响?
挑战在于,我们从那些通常处于边缘的人的角度考虑道德、责任或DEI,但我认为这实际上不仅对这些人有好处,而且对我们所有人都是有好处的。DataRobot在2022年进行的一项调查显示,算法偏见实际上会导致收入损失62%,客户流失61%,员工流失43%,更不用说法律费用了,这对业务产生影响,人们希望知道正在构建的东西是否构建得很好。
CIO或者IT领导者如何确保他们正在构建或购买的AI被有道德的方式采用了?
他们需要为组织定义有道德的AI。我们可以采用有道德的AI的一般定义,但也有与业务要实现的目标相关的特定定义。而且,需要和这些组织或公司的领导层共同定义,这就是领导层需要对AI采取战略方针的时候,需要非常深入地了解我们愿意做出哪些权衡以确保我们的产品或服务合乎道德。我们需要创建可以跨职能集成的治理模型。
我还认为,对于那些购买了AI以融入其组织的人来说,了解AI知识非常重要。我们的员工知道这会为他们带来什么吗?我们需要确保作为一家公司,我们已经投入了所需的能力和空间让员工能够以最佳方式使用AI。
最后一点是问责制和对现有系统的持续评估。我们需要不断检查:它是否实现了我们想要的有道德的AI这一目标,还是产生了我们没有预料到的结果?
现在似乎有很多关于AI的担忧,从虚假信息到失业,再到AI接替人类。您对AI的主要担忧是什么?
我想到的是失去的市场。我的意思是,我们仍然处于一个存在数字鸿沟的世界。世界上很多人仍然无法访问互联网,这很疯狂,但却是事实。
我们使用的数据中有很多是基于数字足迹的,意味着我们设计和开发AI系统的方式是基于有限的数据,这是一个很大的问题。如果AI系统最终应该服务于世界,那么如果AI系统所基于的数据基本上不包括世界上的大多数地方时,如何服务于世界?
这是我们需要解决的一个大问题,尤其是如果我们真的希望AI对每个人都有用,尤其有很多解决方案仍然来自北美或欧洲。我们这个半球的所有人都肩负着额外的负担和责任,需要真正思考,我们如何与世界各地的群体一起解决这个问题?
然后就是不同参与者之间的真诚合作和沟通,AI现在为我们做了什么,未来会为我们做什么——无论是技术、公司本身、政府、建设者,甚至是用户和消费者。问题是,我们是否相互理解,是否找到了共同点?
监管部分非常非常重要。如果科技公司以一定的速度发展,而政府以另一种速度发展,那就要令人担忧了。
好文章,需要你的鼓励
今年是AI智能体的爆发年。聊天机器人正演进为能代表用户执行任务的自主智能体,企业持续投资智能体平台。调研显示,超半数高管表示其组织已在使用AI智能体,88%在智能体上投入过半AI预算的公司已从至少一个用例中获得投资回报。Gartner预测,到2026年40%的企业软件应用将包含智能体AI,2035年智能体AI可能驱动约30%的企业应用软件收入。企业开始将AI智能体视为员工,建立招聘培训体系。
NVIDIA联合多所高校开发的SpaceTools系统通过双重交互强化学习方法,让AI学会协调使用多种视觉工具进行复杂空间推理。该系统在空间理解基准测试中达到最先进性能,并在真实机器人操作中实现86%成功率,代表了AI从单一功能向工具协调专家的重要转变,为未来更智能实用的AI助手奠定基础。
谷歌的Nano Banana Pro AI模型生成的图像逼真度令人震惊,其关键在于完美模拟了手机相机的拍照特征。这些AI生成的图像具备手机拍照的典型特点:明亮平坦的曝光、较大的景深范围、略显粗糙的细节处理,甚至包含噪点。该模型还能自动添加符合情境的细节元素,如房产照片的水印等,使图像更加真实可信。这种技术进步意味着辨别AI生成内容变得更加困难。
这项研究解决了现代智能机器人面临的"行动不稳定"问题,开发出名为TACO的决策优化系统。该系统让机器人在执行任务前生成多个候选方案,然后通过伪计数估计器选择最可靠的行动,就像为机器人配备智能顾问。实验显示,真实环境中机器人成功率平均提升16%,且系统可即插即用无需重新训练,为机器人智能化发展提供了新思路。