为了确保降低风险并获得回报,一些企业正在聘请高级管理人员来管理他们复杂的AI和算法需求。Carter Cousineau就是这样的一位领导者,他是新闻和信息提供商汤森路透的数据和模型治理副总裁。
Cousineau在2021年9月加入汤森路透。此前她积累了广泛的公共部门和私营企业经验,包括在圭尔夫大学Center for Advancing Responsible and Ethical Artificial Intelligence中心担任董事总经理。
她的研究兴趣涵盖了人机交互到可信AI的一系列主题,还曾与科技初创公司、非营利组织、小型企业和财富500强公司合作过。她在汤森路透和更广泛领域的目标,是开发一种安全可靠的数据使用方法。
“我非常热衷于确保我们以道德的、负责任的方式做事,尤其是在技术方面,”她说。
“任何组织的数据和模型都存在复杂性。我个人的愿景之一即使,我不明白为什么我们无法通过适当的控制措施来帮助负责任地使用这些数据和模型并遵守道德规范。因此,这是我们与这里所有不同团队展开密切合作所要做的事情。”
构建正确的企业文化
Cousineau之所以被汤森路透所吸引,是因为这家公司既有企业机遇又面对研究上的挑战。
“虽然汤森路透是一家大型跨国企业,但也拥有专注于研究的实验室。这是一家有强大研发实践的公司,我希望成为其中的一员,”她说。
“我的经验与公司想要做的一些事情,以及公司寻求内部扩张的事情,能够很好地融合在一起,把我所做的一些研究付诸实践是很有趣的。”
Cousineau表示,大多数组织都有专人负责数据模型治理,尤其是金融企业,这些企业必须拥有强大的AI实践,因为他们会受到严格的监管。一般情况下,治理负责人的资历级别取决于他们所处的业务环境。
“能够进入一个组织并构建方法,在组织中打上自己的印记,并看到整个公司的变化,这真是太好了,”她说。
“这与在大学里是不同的,你在大学里从事研究项目和不同的计划。而进入一家公司,思考如何灌输影响力以及改变企业文化以取得信任,这让我感到很兴奋。”
Cousineau表示,她的角色涉及整个企业。她的全球团队包括来自加拿大、瑞士、印度、英国和美国的专业人士,涵盖了汤森路透从数据收集到模型退役的整个数据生命周期。
“我们负责支持每一个业务职能,无论是人员、营销、财务还是产品,我们的工作涵盖了从创建数据或模型的那一刻起,一直到使用数据或模型,再到停用的整个过程。”
她的团队要确保以良好管理且符合道德的方式使用信息和洞察。Cousineau表示,来自团队的支持,帮助她从学术界到企业界的转变过程变得容易多了。
她说:“对于任何新角色来说,都会有一些人员是你需要承接过来的。但这是一支业务遍及全球的优秀团队。这里的员工非常有才华,他们都愿意并且准备好改进我们作为一个企业正在做的一些事情。”
为道德AI奠定基础
Cousineau表示,她在汤森路透所做工作的一个关键部分,涉及到为有效的数据治理构建基础要素。
“就是要围绕应用政策和标准,然后将这些方法付诸行动,其中涉及实施任何可以帮助、支持和验证我们在实践中所做工作的控制和工具,”她说。
“围绕治理和道德制定战略是我在公司参与的第一项工作。”
Cousineau表示,这些基础要素现在已经就位。在这方面,汤森路透正在使用Snowflake的技术让员工找到他们需要的洞察,并打造了一个基于云的平台以实现长期创新。所有企业信息都会进入Snowflake Data Cloud中,存储在汤森路透的Data Platform中。
除了拥抱云服务之外,技术的快速变革——尤其是在生成式AI等快速发展的领域——意味着政策和标准不断完善。随着数据管理的构建模块就位,Cousineau现在要确保整个企业的人员都知道良好的治理在日常工作中意味着什么。
她说:“这项工作占用了我团队的大量时间,我们正在每个业务部门开展工作,以确保采取正确的方法,这就是推动文化变革并影响人们。”
Cousineau表示,她的团队对整个组织中人员的所有各种工作流程都有很强的认识。他们利用这些知识来确保他们创建的数据策略是适合于人们用来完成各种任务的。
“我的治理和道德方法不是构建无法适合大家日常工作流程的不同框架和工具。这些工作流程在不同业务中有很大的差异。例如,金融部门使用AI机器学习模型的方式和产品或销售部门的方式就是非常不同的,”她说。
“我们花了很多时间来了解这些工作流程。我最不想做的事情就是给数据科学家、模型开发人员和产品负责人带来另外一大堆要做的事情。如果你可以自动将治理和道德纳入他们的工作流程,事情就会变得容易得多——我们已经做到这一点了。”
为生成式AI的长期影响做好准备
Cousineau表示,未来24个月她大部分的优先事项都是和监管以及实施有关的,其中一个很大的问题,就是制定规则帮助组织应对快速发展的生成式AI。
她说:“全球范围内还有更多尚未制定的规则,已经有一些AI方面的道德监管了,但未来还会有更多。”
Cousineau特别指出了欧盟的《通用数据保护条例》(GDPR)、《欧盟人工智能法案》以及加拿大和美国各州正在颁布的其他立法。
“我们采纳了所有这些法规并制定了我们的战略,因此当更多法规出台的时候,我们就已经做好了准备。未来18个月的主要重点,就是要确保我们拥有正确的制衡机制,从而促进创新,因为我们在不断地利用新数据构建新的模型。”
她举例说明了公司客户是如何使用这些模型和数据的:“我们的核心产品之一是Westlaw,这是一个判例法数据库,具有内置的诉讼工具和与之相关的强大法律研究成果。这款工具的能就是,法律专业人士可以针对他们需要的信息设置自定义警报。”
无论汤森路透以何种方式使用这些数据模型,Cousineau和她的团队都要确保在所有用例中践行负责任的AI。她解释说,随着生成式AI这个新机遇的出现,如何验证这项基础工作就变得至关重要。她说,我们的期望是所有用例都是经过数据影响评估的。
作为一个以安全利用信息和洞察为职业生涯的人来说,Cousineau很有兴趣去了解生成式AI发展的下一个阶段。她说,总体基调应该是一种谨慎的兴奋——也就是不要过度依赖于技术,即使你它就是未来的大势所趋。
“我认为,人们肯定会有办法改善他们的工作方式,但每个人在信赖信息的时候也需要小心。一个典型的例子就是‘幻觉’,也就是机器也会犯错误。”
“但是,如果你在一个存在人机交互的环境中使用生成式AI,并且你仍然在内容到达某个地方之前对其进行审查,那么就有提高效率的空间。以前可能需要几个小时才能完成的事情,未来可能会花费更短的时间。”
好文章,需要你的鼓励
研究显示47%的企业在IT人才招聘和留存方面面临挑战,流失率居高不下。意大利53%的IT主管表示人才吸引和保留是日常难题。专家认为人才并非稀缺,而是未得到重视,因此更愿意出国发展。成功的CIO需要识别人才、给予适当机会并建立信任关系。通过持续培训、职业发展机会和有效领导力,企业可以更好地留住IT专业人员。
牛津大学研究团队发现,经过强化学习训练的AI搜索助手存在严重安全漏洞。通过简单的"搜索攻击"(强制AI先搜索)和"多重搜索攻击"(连续十次搜索),可让AI的拒绝率下降60%,安全性降低超过80%。问题根源在于AI的安全训练与搜索功能训练分离,导致搜索时会生成有害查询。研究呼吁开发安全感知的强化学习方法。
一家医疗机构的关键业务应用在早晨高峰期会停止响应长达半小时。技术顾问调查发现,应用厂商在未告知客户的情况下,于业务时间在生产系统上运行修复任务,导致数据库锁定。更令人震惊的是,该生产数据库存储医疗数据和支付信息,却完全没有访问控制,任何用户都可以访问任何数据。
斯坦福大学团队开发了GuideFlow3D技术,通过创新的引导机制解决3D对象外观转换难题。该方法采用智能分割和双重损失函数,能在保持原始几何形状的同时实现高质量外观转换,在多项评估中显著优于现有方法,为游戏开发、AR应用等领域提供了强大工具。