2024年数字伦理峰会:认识人工智能的社会技术本质

本次峰会探讨了人工智能(AI)的社会技术本质,强调需要通过包容性方法来开发和治理AI,以避免加剧不平等和权力集中。与会者呼吁将伦理原则转化为具体实践,并强调了AI在全球扩散过程中的地缘政治影响。峰会还讨论了如何负责任地在公共部门推广AI,以及开放与封闭AI模型的利弊。

2024年12月,在英国科技行业协会TechUK举办的第八届年度数字伦理峰会上,与会代表将2025年称为人工智能(AI)的"扩散年"。他们指出,虽然过去一年AI技术没有重大突破,特别是在2022年底掀起当前炒作热潮的生成式AI平台方面,但各组织现在正"深入细节"地将AI技术实际映射到工作流程中。

代表们表示,在未来一年,重点将放在将AI应用投入生产和扩大使用规模,同时提高技术的整体安全性。他们还强调了新上任的英国工党政府将AI作为经济增长引擎的关注点,以及通过建立更强大的安全和保障生态系统来实现公共和私营部门更广泛AI扩散的重点。

然而,代表们认为,2024年AI工具的日益普及和渗透意味着现在迫切需要将AI伦理方法操作化和标准化。尽管近年来已制定了许多框架和原则,但大多数仍然过于"高层次和模糊"。

他们强调,任何监管都需要认识到AI的社会技术性质(即系统的技术组件受社会进程影响,反之亦然),这意味着必须考虑技术将如何导致更大的不平等和权力集中。他们还强调,AI正在一个对政府和企业信任度处于历史最低点的时期扩散。

为避免加深这些不平等和权力集中,同时重建信任,许多代表强调需要采取包容性、参与性的方法来发展和治理AI,这需要在地方、国家和全球层面实施。

讨论还涉及了技术主权能力的问题,代表们指出,目前只有中国和美国能够在AI方面单方面行动,以及是采取封闭还是开放的方式来进一步发展技术。

在2023年12月的上一届峰会上,讨论同样集中在将善意的AI伦理原则和框架转化为具体实践的需要上,强调围绕如何控制AI的大部分讨论过于由全球北方富裕国家的企业和政府主导。

与会者达成共识,认为围绕AI的国际辩论日益激烈是积极进展的标志,但还必须更加强调AI作为一个社会技术系统,这意味着要考虑技术的政治经济学,并处理其在现实世界中运作的实际影响。

操作化伦理,包容性实施

在关于最新技术突破对AI伦理意味着什么的小组讨论中,KPMG咨询公司英国AI负责人Leanne Allen表示,虽然围绕AI的伦理原则经受住了时间的考验(至少在没有新原则被添加到列表中的意义上),但在实践中应用这些原则仍然具有挑战性。

Allen以"可解释性"作为AI已确定的伦理原则之一为例,补充说解释生成式AI模型的输出"从根本上说很困难",这意味着"需要对许多伦理原则在实践中的具体表现进行细化和进一步指导"。

MIT技术评论高级记者Melissa Heikkila同意,虽然看到这么多公司制定AI伦理框架,并扩大其对模型进行红队测试和审计的技术能力是很有希望的,但大部分工作仍然停留在非常高的层面上。

她说:"我认为没有人能就如何进行适当的审计或这些偏见评估应该是什么样子达成一致。这仍然很像是'狂野西部',每个公司都有自己的定义。"她补充说,缺乏"有意义的透明度"正在阻碍这些领域的标准化进程。

Cohere AI安全团队高级技术人员Alice Schoenauer Sebag补充说,找到某种方式来标准化AI伦理方法将有助于"启动创新",同时让每个人在设定对问题的共同理解方面达成一致。

她强调了AI基准测试公司MLCommons的"风险和可靠性"工作组,称已经在进行建立围绕该技术的共享分类法的工作,从而可以为公司建立一个基准测试平台,以帮助它们评估其模型:"我认为这将对建立信任至关重要,并通过对安全性、可访问性和透明度形成共同理解来帮助扩散。"

Sebag进一步补充说,随着越来越多的公司从AI"实验转向生产",需要开始就"产品在部署环境中安全意味着什么"进行"非常务实的对话"。

"我不会说(伦理)对话变得更困难,我会说它们变得更具体,"她说。"这意味着我们需要非常具体,这就是我们与客户正在做的 - 我们真正讨论了关于对这个应用程序、这个用例来说,部署和负责任意味着什么的所有关键细节。"

Allen说,由于大多数组织是采用AI而不是构建自己的模型,他们最终寻求的是确保他们购买的是安全可靠的。

"大多数组织...无法控制这一方面,他们依赖与该组织的合同来说明他们已经通过了伦理标准,"她说。"但仍然存在不确定性,因为我们都知道它并不完美,而且在很长一段时间内也不会完美。"

然而,代表们强调了特别将包容性操作化的重要性,指出AI行业对英语世界的关注没有考虑到文化差异。

"由于我们正在部署产品以帮助世界各地的企业...确保我们不采取西方、以英语为中心的安全方法非常重要,"Sebag说。"我们真的需要确保模型在各地都是安全的,按照安全的含义来说。"

权力集中

Heikkila补充说,在过去10年里,英语国家在AI发展中的主导地位并没有真正改变,但这有巨大的影响:"语言带来了大量的权力、价值观和文化,能够主导技术的语言或国家可以主导我们的整个视角,因为每个人都与这些模型互动。"

"拥有多样化的语言和地理分布非常重要,特别是如果你想在全球范围内扩展这项技术...拥有这些代表性非常重要,因为我们不希望有一个只适用于一种方式或只适合一群人的AI。"

然而,Heikkila强调,从政治、社会技术的角度来看,我们可能会目睹"权力、数据、(和)计算能力在少数公司和国家之间进一步集中",特别是在"美国和中国之间紧张局势上升"的背景下。

在另一个关于英国AI监管、治理和安全的小组讨论中,查塔姆研究所数字社会项目主任Alex Krasodomski表示,中美在AI方面的竞争意味着"这是加速器的时代,而不是刹车的时代",他指出一些人已经在呼吁启动一个新的以AI为重点的曼哈顿计划,以确保美国保持领先于中国的地位。

他还指出,由于地缘政治局势,不太可能就AI达成任何超越技术安全措施的国际协议,更不用说任何更具政治性的协议了。

彼得伯勒工党(合作社)议员Andrew Pakes表示,虽然地缘政治权力动态很重要,但也必须同时考虑英国社会内部的权力失衡,以及在这种背景下如何监管AI。

"我们正处于新自由主义模式在监管方面即将消亡的时期。我们谈论了很多关于监管的问题...每个人的理解都不同。在公众对他们认为的监管的理解中,他们认为是关于公共利益的监管,但在很大程度上是关于经济竞争和保护市场,"他说,并补充说任何监管方法都应该专注于建立一个基于包容性的有凝聚力的民主环境。

"我们需要思考AI对工作中的人们的日常经济意味着什么,但在我这样的地方,可悲的现实是,工业变革在很大程度上意味着人们被告知他们将有更好的机会,而他们的孩子却有更糟糕的机会。这就是这个国家工业变革的背景。"

他补充说,虽然英国显然需要找出利用AI并保持国际竞争力的方法,但利益不能仅限于该国现有的经济和科学中心。

"像我所在的彼得伯勒这样的地方,位于剑桥旁边,你在两个城市中就可以看到英国的两面,"他说,指出虽然后者是创新、就业和增长的中心,但前者却有英国最高的儿童贫困水平,以及最低的大学入学率。"人们仅仅因为居住的邮政编码就过着两种不同的生活 - 我们如何应对这一挑战?"

Pakes补充说,这幅图景因为人们根本不信任变革而变得更加复杂,特别是当这种变革是由政府和大公司从上而下强加给他们的时候。

"我们正试图embarkengage one of the最大、最rapid的工业变革,但我们可能处于我们的民主中人们对加诸于他们身上的变革最缺乏信任的时期。我们在全球范围内看到了这一点,"他说。"人们喜欢创新,喜欢他们的小工具,但他们也看到了像邮政局(丑闻)这样的事情,他们不信任政府的IT,也不信任政府做好事的能力。我很遗憾,他们同样也不信任大公司。"

Pakes总结说,关键是让人们感觉变革是与他们一起进行的,而不是加诸于他们身上的,否则:"我们将失去经济利益,我们甚至可能在我们的社会中制造更多的分裂。"

负责任的扩散

在关于如何负责任地在公共部门推广AI的小组讨论中,其他代表强调需要与将使用AI的人共同设计AI,并让他们early in the lifecycle of任何给定系统中参与进来。

对Connected By Data运动组织的创始人Jeni Tennison来说,虽然这可以通过公众deliberations或用户主导的研究来实现,但AI开发者需要与民间社会组织和公众直接建立联系。

她补充说,围绕AI需要有一种"好奇实验的模式",认识到它不会完美或一开始就能正常工作:"让我们一起找到通向我们都珍视的东西的路。"

英国学术院首席执行官Hetan Shah也注意到迫切需要将普通人纳入AI的发展中,他强调了公众在2008年经济衰退后经历紧缩的经历,说虽然当时政府推动了这个包容性的"大社会"idea,但在实践中,公众目睹了公共服务的减少。

"在这背后有一个值得尊敬的思想核心,但它被完全不同的东西所束缚。它变成了,'我们不再在图书馆上花任何钱,所以我们会用志愿者来代替',"他说。"如果AI也被卷入其中,公民不会喜欢的。如果你不考虑公民,你的议程将以失败告终。"

Tennison补充说,最终,实际包括普通人是一个政治和政治优先级的问题。

在国际方面,将于2025年初在法国举行的AI行动峰会的首席执行官和主题特使Martin Tisné强调了国际合作以解决AI的战略重要性和地缘政治影响的必要性。

他指出,在组织最新峰会时 - 这是继2023年11月在布莱切利公园举行的首届AI安全峰会和2024年5月在首尔举行的AI首尔峰会之后 - 虽然一些国家清楚地将技术视为战略资产,但活动的组织方式正试图"将AI的全球轨迹转向合作,而不是竞争"。

他补充说,合作至关重要,因为"除非你是美国或中国",否则你根本没有能力在AI方面采取民族主义行动。

主权能力?

对于 Krasodomski 来说,解决人工智能领域明显的地缘政治权力失衡的部分方案可能在于各国建立自己的主权能力和技术专长,这一点已经通过人工智能安全研究所的建立开始实施。

"英国皇家国际事务研究所在其研究中强烈支持公共人工智能的理念...认为政府仅仅作为监管者是不够的,"他表示。"他们需要成为建设者,需要有能力和授权来提供人工智能服务,而不是简单地依赖于他们无法与之平等谈判的巨型科技公司,而这些公司掌控着他们的人民所依赖的技术。"

然而,他强调,目前对英国和其他国家来说,"这并不是一场公平的对话",因为"人工智能行业目前高度集中在微软和谷歌等少数几家大公司手中"。

Krasodomski 指出了国家内部和国家之间存在的权力失衡,这种失衡阻碍了许多政府投资和推广自身数字能力的能力。他补充道:"每个国家都将争相与那些有能力部署人工智能所需规模资本的公司建立最强有力的关系。"

关于英国政府应该采取的具体行动,Krasodomski 表示,瑞典、瑞士和新加坡等国家正在建立自己的国家人工智能模型,"因为他们认识到这是掌控局面的机会"。他补充说,虽然英国不一定要建立主权人工智能能力,但至少应该在政府内部建立技术能力,使其能够更有效地与大型供应商进行谈判。

微软英国政府事务高级总监 Chloe MacEwen 补充说,在这个日益多边化的世界中,英国处于独特的位置,可以从人工智能中获益,因为其科学人才和专业知识将有助于"制定标准"和安全研究。

她进一步表示,英国有很好的条件围绕第三方审计和人工智能模型保证建立新市场,而且历届政府的云优先战略意味着各组织将能够获得人工智能进一步普及所需的基础设施。

她说,虽然人工智能的基础构建模块在云基础设施方面已经就位(2023 年 12 月,微软承诺在未来三年内向英国投资 25 亿英镑,使其数据中心规模扩大一倍以上),但微软下一步考虑的是如何集中和组织分散的数据,以便有效使用。

然而,Mozilla 全球政策副总裁 Linda Griffin 表示,云代表了"一个重大的地缘政治战略问题",她指出"这实际上是人工智能技术栈中大部分力量所在,而且目前掌握在少数几家美国公司手中。我觉得我们没有很好地平衡风险。"

开放与封闭的人工智能

Griffin 回顾了 Mozilla 和其他组织在 20 世纪 90 年代如何为保持互联网开放而战,以对抗企业对互联网的封闭。她表示,"我们正在为人工智能领域的同类战斗做准备",并指出目前大多数人工智能研究都是由公司内部进行,而不是公开分享。

她补充说,虽然开放式人工智能方法正在兴起——特别是在过去一年里,政府、企业、第三部门组织和研究机构都在寻找可以借鉴的开放模型——但它仍然对当前的人工智能市场及其发展方向构成威胁。

"市场总是在变化,但一些依赖黑盒人工智能模型的公司对开源感到非常威胁,因为,你知道,与免费竞争可能很困难,他们在将开源描绘成'危险'方面做得非常好,"她说,并强调了美国国家电信和信息管理局(NTIA)的一份报告,该报告研究了开放与封闭模型的问题。

报告得出结论:"目前的证据不足以明确地确定对此类开放权重模型的限制是否有必要,或者将来是否永远不会有必要。"相反,它概述了如果这些模型在未来出现"更高风险"时美国政府应采取的步骤。

Griffin 补充道:"没有证据或数据支持[开放是危险的]这一说法。所有的人工智能都可能是危险的,难以操作的,但仅仅因为某些东西被放在我们无法访问或真正理解的黑盒子里,并不意味着它更安全。开放和封闭的人工智能都需要防护措施。"

与 Krasodomski 一致,Griffin 强调政府需要对支持人工智能驱动的公共服务的基础设施有更大的控制权,她表示英国应该"提前考虑如何利用开源进行建设"。

"大多数公司将无法支付这些 API 不断增加的成本,他们无法控制条款和条件如何变化。从 25 年的网络发展和更多经验中,我们知道真正造福更多人的创新发生在开放环境中,这正是英国可以大放异彩的地方。"

Griffin 说,归根结底,这是一个信任的问题:"我们听到很多关于人工智能和公共服务的炒作,说它将如何变革性地为纳税人节省大量资金,这当然很好。但是,除非我们更多地了解数据、它是如何训练的,以及为什么会得出某些决定,否则我们如何真正信任人工智能在医疗保健等领域大规模应用呢?答案很明确:更加开放。"

 

来源:Computer Weekly

0赞

好文章,需要你的鼓励

2025

01/06

15:36

分享

点赞