根据 Gartner 的 2024 年董事会调查显示,80% 的非执行董事认为他们当前的董事会实践和架构不足以有效监督 AI。
数字服务和咨询公司 Infosys 发布的 2024 年企业 AI 就绪雷达报告显示,仅有 2% 的公司完全准备好大规模实施 AI,尽管备受关注,但对大多数公司来说,AI 还需要 3 到 5 年才能成为现实。
Kearney 发布的 2024 年全球 AI 评估 (AIA) 报告显示,在超过 1,000 名受访高管中,只有 4% 有资格成为 AI 和分析领域的领导者。
为了应对这些统计数据,CIO 表示他们和其他 C 级高管正在制定更周密的战略。作为其中的一部分,他们正在对计划提出尖锐的问题。
以下是 CIO、研究人员和顾问认为值得提出和回答的关于组织 AI 战略的 10 个问题。
我们想要实现什么,AI 是否真的合适?
ChatGPT 在 2022 年秋季问世时引发了一波热潮,随之而来的是对生成式 AI 和各类智能技术的快速实施。
IT 高管 Ron Guerrier 表示,这种活动热潮自我滋长,FOMO (错失恐惧) 开始蔓延,企业和 IT 领导者认为如果不像早期用户那样快速采用 AI,就会落后。
但 CIO 需要让每个人首先明确表达他们真正想要实现的目标,然后再讨论是否需要 AI (或其他技术) 来实现这个目标。
"人们过于匆忙地将 AI 作为解决方案,而不是先问问这是否真的是他们想要的,或者是否需要自动化或其他工具来代替,"目前在慈善机构救助儿童会担任 CTO 的 Guerrier 说。
我们的 AI 战略如何支持业务目标,以及如何衡量其价值?
全球技术咨询公司 Thoughtworks 的首席 AI 官 Mike Mason 表示,这对他来说是一个关键问题,因为它确保公司的 AI 战略将推动高管们确定的能为组织带来成功的成果。
否则,组织可能会追求那些技术上可行但无法为企业创造价值的 AI 计划。Mason 指出:"在过去一年半中,这种情况很常见。"
同时,他说,确定组织如何衡量其 AI 战略的价值,确保它能够带来有影响力的成果,因为要创建这样的衡量标准,团队必须明确期望的成果和他们希望获得的价值。
Mason 补充说:"2023 年和 2024 年初是实验和了解它能做什么的时期。我认为到了 2025 年,任何人都没有理由不知道这些工具能为他们做什么。因此,整个组织必须有一个明确的方式来衡量投资回报率,创建 KPI 和 OKR 或他们使用的任何框架。技术部门应该推动确保这方面的明确性。"
许多 CIO 在这方面还有工作要做:根据 2024 年 9 月 IDC 的调查,30% 的 CIO 承认他们不知道有多少比例的 AI 概念验证达到了目标 KPI 指标或被认为是成功的 —— 这可能会导致许多 AI 项目失败或被认为"只是做做样子"。
AI 将带来什么样的投资回报?
Vanguard 的企业系统和技术负责人 Jennifer Manry 认为,随着组织抓住 AI 特别是生成式 AI 的潜力,计算预期的投资回报率很重要。
"生成式 AI 是一项重大投资,需要在基础设施和人才方面投入大量资金,"Manry 说。"作为业务的重要战略合作伙伴,CIO 必须考虑这项投资在业务价值方面将创造的回报。"
Manry 注意到,一些 AI 部署会带来适度的投资回报,而其他则会带来显著的回报。这两类项目都值得关注,即使许多 CIO 仍在努力寻找投资回报。
她补充说:"CIO 必须支持和团结在重大战略押注周围,同时在团队中普及生成式 AI。员工们会找到方法来推动增量价值、效率和自动化。没有哪个小团队能够设想生成式 AI 可以为每个团队/职能部门的日常工作带来转变的所有方式,但他们可以就你想要投入时间和资源的重大战略押注提供意见。这就是为什么需要所有人的集体力量。"
我们的 AI 战略是否覆盖整个企业?
Infosys 美洲交付执行副总裁兼负责人 Anant Adya 表示:"AI 战略在整个组织范围内实施而不是仅在一两个工作流中实施是至关重要的。当组织试图零散地安装 AI 战略时,一些工作流可能会落后,这可能导致组织中 AI 进展和理解的不平衡。"
Adya 建议那些发现其组织的 AI 战略未能平等实施的 CIO "重新思考他们的 AI 推广计划"。
"如果你只与公司某一领域的领导者讨论 AI 实施,现在是时候为企业范围的 AI 计划制定计划了,"他说。"虽然你可能在公司的某一领域获得 AI 实施的短期成功,但如果你不想让公司在 AI 竞赛中落后,你需要制定一个全面的实施计划 —— 并确保其实施。"
为此,评估当前的 AI 战略,并注意 AI 未被整合到组织实践中的地方。制定计划使这些工作流跟上进度。并确保与每个被指定帮助实施 AI 战略的公司领导定期会面。
Adya 补充说:"对整个组织中正在进行的 AI 实施有完整的可见性对每个工作流的成功都至关重要。"
相关的是,Adya 说 IT 领导者还应该问问他们的 AI 战略是否"考虑到并非所有员工都对 AI 及其功能有深入了解这一事实"。
他说:"虽然 CIO 和其他领导者可能对如何使用 AI 及其相关语言有深入了解,但如果假设所有级别的员工都对 AI 有相同的理解,这对组织的成功将是有害的。如果你的 AI 战略和实施计划没有考虑到并非所有员工都对 AI 及其功能有深入了解这一事实,你必须重新思考你的 AI 培训计划。"
我们是否具备超越沙盒环境所需的数据、人才和治理?
组织通常会测试 AI 用例,启动概念验证和试点项目来确定他们是否在做一个好的押注。这些当然往往是在沙盒环境中进行,有精心策划的数据和精英团队。
但是当 CIO 制定他们的 AI 战略时,Mason 说他们必须问自己是否准备好将成功的 AI 测试转移到生产环境中。
"他们需要具备在整个组织中扩展 AI 所需的数据、人才和治理,"他说。"这些是组织必须做对的基础部分。"
研究证实了 CIO 和他们的高管同事需要在这方面投入更多思考,因为只有一小部分 AI 概念验证进入生产环境,而进入生产环境的项目中只有一部分被认为是成功的。
我们对数据有多大信心?
当 Guerrier、他的同事和团队推进组织的 AI 使用时,Guerrier 向团队提出了一个关键问题:"我们对数据有多大信心?"
"我们是否了解我们拥有的数据和我们摄入的数据?我们是否真正理解数据生态系统,我们如何在 0 到 10 的范围内对这种[理解]进行评分?这始终是我对任何 AI 相关事物的首要询问,"他说。
Guerrier 承认数据不必对所有用例都是完美的。但组织仍需要对数据环境进行评级,以了解它是否足够强大,能够支持他们正在追求的特定 AI 项目。
"使用 AI 来修改资助申请中的段落,这是低保真度的。但如果你使用 AI 来决定如何应对飓风区的人道主义危机,当你谈论的是人们的生命和生计时,那就不同了,"他说。
如果组织接受审计或质询,我们是否能自信地为 AI 使用辩护?
这是 Guerrier 希望人们在推进 AI 计划时考虑的另一个问题,他补充说,这种措辞促使人们真正考虑他们对想要追求的 AI 项目有多大信心。
"对我来说,这是关于能够为所有组件辩护,"他解释道。
他说,即使没有人能对驱动 AI 系统的数据质量和数量 100% 放心,他们也应该对数据质量和数量对用例来说足够高有信心,数据得到充分保护,其使用符合监管要求和最佳实践,如隐私保护等。
同样,Guerrier 说企业领导者需要对他们的算法有足够的信心 —— 它们在道德上是可靠的,有防止无意偏见的保障措施,结果是可验证和可解释的,使用是符合道德的 —— 这样他们就能在审计或质询中为它们辩护。
"企业有责任做更多这样的事情,"他说。
我们是否准备好处理 AI 部署带来的道德、法律和合规影响?
同样地,提供 AI 和数字转型解决方案的 Forum3 的联合创始人兼联合 CEO Andy Sack 说,CIO 必须向自己和其他 C 级高管提出这个问题。
现在这个问题特别相关,因为政府正在考虑更多的 AI 法规,法院在处理 AI 相关案件,社会正在应对这项技术带来的现实世界有时是悲剧性的后果。
Sack 说,公司需要考虑他们的 AI 战略和用例可能带来什么样的道德、法律和合规影响,并尽早而不是晚些时候解决这些问题。
"道德、法律和合规准备有助于公司预见潜在的法律问题和道德困境,保护公司免受风险和声誉损害,"他说。"如果道德、法律和合规问题未得到解决,CIO 应该制定全面的政策和指南。此外,他们应该咨询法律专家以应对法规,并建立监督委员会。"
我们的风险承受能力是什么,需要什么保障措施来确保 AI 的安全、可靠和道德使用?
Manry 说这样的问题在她的公司是首要考虑的。
"在 Vanguard,我们通过实验、培训和创意,专注于道德和负责任的 AI 采用,"她说。"基于高层领导和员工的观点,我们目前的生成式 AI 实验主要集中在代码创建、内容创建以及信息搜索和总结上。"
她建议其他人采取类似的方法。
"CIO 必须评估风险承受能力,并为生成式 AI 实施保障措施,以解决安全、安保和道德问题。通过建立健康的保障措施,如数据保护协议和道德护栏,CIO 确保负责任的 AI 使用并最小化风险,"她说。"建立一个 AI 治理框架,根据数据敏感性定义组织的风险承受能力和可接受使用模式,允许低风险生成式 AI 用例快速推进,同时对高风险应用进行更严格的评估。"
"这种方法使团队能够安全有效地创新,同时确保对涉及敏感数据的用例有更严格的保障措施。通过实施强大的安全措施、偏见缓解技术和道德审查流程,CIO 可以最小化风险并确保负责任的 AI 使用。"
然而,并非所有组织都已经达到这个水平:提供定制数字解决方案的 Lumenalta 的数据治理研究发现,只有 33% 的组织实施了主动的 AI 治理风险管理策略。
我是否与业务部门合作来回答问题?
波士顿咨询集团技术构建和设计部门 BCG X 的董事总经理、高级合伙人兼北美联合主席 Sesh Iyer 说,CIO 不应该单打独斗。
"CIO 必须问自己是否正在与业务部门合作以通过生成式 AI 创造价值,是否对生成式 AI 有明确的关注并有明确的路径在 12 个月内实现有意义的投资回报,是否正在利用数字生态系统的力量支持他们的生成式 AI 议程,[以及]是否有明确的计划来大规模提取和使用数据以实现这些目标,"Iyer 说。
"这些问题对 CIO 来说至关重要,以确保他们正在创造价值,有效地针对支出以实现回报,并考虑价值速度 —— 利用更广泛生态系统的知识产权和产品更快地实现价值。此外,他们必须确定是否拥有实现这些 AI 驱动成果所需的'数字燃料'(即数据和基础设施)。"
他建议 CIO "与业务部门一起制定或完善综合目标议程"并"制定明确的商业案例,展示 12 个月内的回报,建立强大的生态系统战略,并积极与合作伙伴合作以最大化价值。"
好文章,需要你的鼓励
CoreWeave 推出全球首个基于 NVIDIA GB200 NVL72 的云实例,助力开启 AI 推理的新纪元。
DeepSeek-R1 的问世引发了科技界的震动。这款 AI 模型以其高效、透明和道德为核心的设计理念,正在改写 AI 行业规则。它不仅展示了开源模型的潜力,还通过优先考虑可解释性、嵌入伦理和专注于好奇心驱动的研究,为 AI 的下一个时代设定了新的标准。
中国人工智能公司DeepSeek的突然崛起震动了全球科技市场,引发了对其性能声明和开源承诺的质疑。尽管其低成本模型引起了业界关注,但在开放性、性能真实性和安全性方面仍存在争议。这一事件也引发了对中国AI技术发展的深入思考。
中国AI公司DeepSeek的突破性成果引发美国科技界震动,同时也让一批美国AI芯片初创公司看到了新机遇。这些公司认为,DeepSeek证明了更低成本、更高效的AI模型训练是可能的,这将促使AI应用大规模普及,从而为专注于AI推理的芯片公司带来巨大商机。他们对此欢欣鼓舞,纷纷表示这是挑战英伟达主导地位的良机。