至顶网CIO与应用频道 10月17日 北京消息:一项新的研究发现,企业管理者正在采取措施,以确保组织内部对人工智能的使用符合道德准则。大多数已经采用人工智能的公司(目前占全球公司总数的72%)对其技术人员开展道德规范方面的培训(70%),并且设立了道德委员会来审查人工智能的使用(63%)。
人工智能方面的领军企业(认为其人工智能的应用“成功”或“非常成功”的企业)在可信赖性方面也走在前列:几乎所有企业(92%)都对其技术人员开展了道德规范方面的培训,而在其他非领军企业中只有48%开展了道德规范培训。
以上调研结果基于在全球范围内对305位企业管理者的调查,其中超过一半是首席信息官、首席技术官和首席分析官。受SAS、埃森哲应用智能服务和英特尔的委托,《福布斯洞察》于2018年7月开展了调研,并撰写了名为《人工智能发展势头、成熟度与成功模式》的调查报告。
该报告指出,人工智能对人们的生活产生切实的影响,从而凸显了围绕其使用建立强有力的道德框架的重要性。
“针对人类的担忧和人工智能可能造成的偏差,例如对人们的偏见和不公平待遇,各个企业已经开始制定应对方案”,埃森哲应用智能服务的人工智能负责人Rumman Chowdhury说:“这些都是积极的应对措施。然而,企业需要超越《希波克拉底誓言》的“不伤害”精神的人工智能道德准则。还需要制定指令性的、具体的技术指导方针,开发安全、透明、可解释并且可信赖的人工智能系统,从而避免对个人、企业及社会可能带来的意外后果与合规性挑战。数据科学家们迫切需要这些指导方针。”
人工智能领军企业也认识到其人工智能的成功与数据分析之间存在着紧密的联系。79%的受访者表示,数据分析在其企业的人工智能应用中起到了重要作用或核心作用;相比之下,只有14%的受访者表示,其所在企业尚未从人工智能中受益。
“那些已经部署了人工智能的公司认识到,人工智能的成功就是数据分析的成功。”SAS首席运营官兼首席技术官Oliver Schabenberger说:“对它们来说,数据分析在人工智能中发挥了核心作用。”
人工智能监管是必选项
尽管业内人士通常建议人工智能应不受人为干预地独立运行,但本研究结果发现,人工智能领军企业认为必须对人工智能技术进行监管。近四分之三(74%)的人工智能领军企业至少每周都会对人工智能的应用情况进行认真审查或评估(应用人工智能不够成功的企业:33%)。此外,43%的人工智能领军企业称,他们会对审查中存在问题的人工智能应用结果进行调整或修改(应用人工智能不够成功的企业:28%)。
尽管如此,该报告指出,监管过程在追赶上人工智能技术的进步之前,还有很长的路要走。
“只有了解了人工智能是如何做决策的,才可以建立人们的信任感,并实现有效的人工监督。”英特尔人工智能产品事业部数据科学部主任刘茵茵表示:“要想建立起人们对人工智能的信任度并使其得到广泛应用,需要开发者及使用者不断努力提升算法的透明度和可信任度,并让人工智能系统明白其并非人类,这还有很长的路要走。”
企业正在采取行动,规范人工智能的使用并确保对其实施监督,因为他们知道有缺陷的人工智能会造成不良后果。在已经部署了或正在计划部署人工智能的组织中,60%的企业担心人工智能驱动的决策会对客户互动产生影响——例如人工智能难以充分理解顾客的需求,或者客户对人工智能缺乏信任。
其它主要调查发现包括:
“正如任何其它快速投入使用的新技术一样,人工智能也需要克服挑战,” 《福布斯观察》的研究主管Ross Gagnon说:“但不论是运营效率提升还是生产力和收入的提高,人工智能都可以创造出无穷无尽的机遇。企业高管应该思考的问题并非是否需要部署人工智能,而是应该以怎样的速度来部署人工智能?”
今天的报道是SAS在圣地亚哥分析体验大会上发布的。本次商业技术会议由SAS主办,数千名现场和网络的与会者汇聚一堂,分享、交流对关键业务问题的见解。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。