CIO有效管理影子AI的六大策略

随着员工自发使用生成式AI工具,CIO面临影子AI的挑战。报告显示43%的员工在个人设备上使用AI应用处理工作,25%在工作中使用未经批准的AI工具。专家建议通过六项策略管理影子AI:建立明确规则框架、持续监控和清单跟踪、加强数据保护和访问控制、明确风险承受度、营造透明信任文化、实施持续的角色化AI培训。目标是支持负责任的创新而非完全禁止。

随着员工自主尝试生成式AI工具,CIO们正面临影子AI带来的熟悉挑战。虽然这通常是出于善意的创新,但可能在数据隐私、合规性和安全性方面带来严重风险。

根据1Password发布的2025年度报告《访问-信任差距》,影子AI增加了组织风险,43%的员工在个人设备上使用AI应用进行工作,25%的员工在工作中使用未经批准的AI应用。

尽管存在这些风险,专家表示影子AI并非应该完全摒弃的东西,而是需要理解、引导和管理的事物。以下六大策略可帮助CIO鼓励负责任的实验,同时保护敏感数据安全。

建立明确的防护措施并留有实验空间

管理影子AI始于明确什么是被允许的,什么是不被允许的。西岸家居公司首席技术官丹尼·费舍尔建议,CIO应将AI工具分为三个简单类别:已批准、受限制和禁止使用。

"已批准的工具经过审查并得到支持,"他说。"受限制的工具可在受控空间内使用,有明确限制,比如只能使用虚拟数据。禁止使用的工具通常是公共或未加密的AI系统,应在网络或API级别被屏蔽。"

他补充说,为每种类型的AI使用匹配安全测试空间,如内部OpenAI工作区或安全API代理,让团队能够自由实验而不会危及公司数据。

SAP公司LeanIX的首席企业架构师杰森·泰勒表示,在当今快速发展的AI世界中,明确的规则至关重要。

"要明确哪些工具和平台获得批准,哪些没有,"他说。"还要明确哪些场景和用例获得批准,员工在使用AI时如何处理公司数据和信息,例如一次性上传与复制粘贴或深度集成的区别。"

泰勒补充说,公司还应创建明确列表,说明哪些类型的数据在什么情况下是安全或不安全的。现代数据丢失防护工具可以通过自动发现和标记数据,以及执行最小特权或零信任规则来帮助管理谁可以访问什么。

巴布森学院CIO帕蒂·帕特里亚指出,CIO为无代码/低代码AI工具和氛围编码平台建立特定防护措施也很重要。

"这些工具让员工能够快速原型化想法并尝试AI驱动的解决方案,但在连接专有或敏感数据时也会引入独特风险,"她说。

为了应对这一问题,帕特里亚表示公司应设置安全层,让人们能够安全地自主实验,但在有人想要将AI工具连接到敏感系统时需要额外审查和批准。

保持持续可见性和库存跟踪

CIO无法管理他们看不见的东西。专家表示,维护AI工具的准确、最新库存是防御影子AI的最重要措施之一。

"最重要的是创造一种文化,让员工愿意分享他们使用的工具而不是隐藏,"费舍尔说。他的团队结合季度调查和自助注册系统,员工记录他们使用的AI工具。然后IT通过网络扫描和API监控验证这些条目。

品牌制造商Bamko的IT副总裁阿里·哈里森表示,他的团队采用分层方法维护可见性。

"我们通过从Google Workspace的连接应用视图提取信息并将这些事件输入我们的SIEM系统来维护连接应用的活跃注册表,"他说。"Microsoft 365提供类似的遥测数据,云访问安全代理工具可以在需要时补充可见性。"

这种分层方法为Bamko提供了清晰的地图,显示哪些AI工具正在接触企业数据、谁授权了它们以及它们有什么权限。

基于云的iPaaS平台Boomi的产品高级副总裁马尼·吉尔认为,人工审计已不再足够。

"有效的库存管理需要从定期审计转向整个数据生态系统的持续、自动化可见性,"他说,并补充说良好的治理政策确保所有智能体,无论是经过批准的还是内置于其他工具中的,都通过一个中央平台发送数据。这为组织提供了对每个智能体正在做什么、使用多少数据以及是否遵循规则的即时、实时可见性。

Tanium首席安全顾问蒂姆·莫里斯同意,跨每个设备和应用程序的持续发现是关键。"AI工具可能一夜之间出现,"他说。"如果新的AI应用或浏览器插件出现在你的环境中,你应该立即知道。"

加强数据保护和访问控制

在保护数据免受影子AI暴露方面,专家指向同样的基础:数据丢失防护、加密和最小特权。

"使用DLP规则阻止向未经批准的域上传个人信息、合同或源代码,"费舍尔说。他还建议在数据离开组织之前对敏感数据进行掩码处理,并开启日志记录和审计跟踪来追踪批准AI工具中的每个提示和响应。

哈里森呼应这种方法,指出Bamko专注于在实践中最重要的安全控制:出站DLP和内容检查以防止敏感数据泄露;OAuth治理以保持第三方权限为最小特权;以及访问限制,将机密数据的上传限制为仅在其生产力套件内批准的AI连接器。

此外,该公司将广泛权限(如对文档或电子邮件的读写访问)视为高风险并需要明确批准,而狭窄的只读权限可以更快地移动,哈里森补充说。

"目标是允许安全的日常创新,同时降低单次点击就授予AI工具超出预期权力的机会,"他说。

泰勒补充说,安全性必须在各种环境中保持一致。"对所有敏感数据进行静态、使用中和传输中的加密,采用最小特权和零信任政策进行数据访问权限管理,并确保DLP系统能够扫描、标记和保护敏感数据。"

他指出,公司应确保这些控制在桌面、移动和Web上以相同方式工作,并在出现新情况时持续检查和更新它们。

明确定义并传达风险承受能力

定义风险承受能力既关乎沟通也关乎控制。费舍尔建议CIO将风险承受能力与数据分类而非意见联系起来。他的团队使用简单的颜色编码系统:绿色表示低风险活动,如营销内容;黄色表示必须使用批准工具的内部文档;红色表示不能与AI系统一起使用的客户或财务数据。

"风险承受能力应基于业务价值和监管义务,"莫里斯说。与费舍尔一样,莫里斯建议将AI使用分为明确类别,什么是允许的、什么需要批准、什么是禁止的,并通过领导简报、入职培训和内部门户传达这一框架。

帕特里亚表示巴布森学院的AI治理委员会在这一过程中发挥关键作用。"当潜在风险出现时,我们将其提交给委员会讨论并协作制定缓解策略,"她说。"在某些情况下,我们决定为员工屏蔽工具,但允许在课堂使用。这种平衡有助于管理风险而不扼杀创新。"

培养透明度和信任文化

透明度是良好管理影子AI的关键。员工需要知道什么正在被监控以及为什么。

"透明度意味着员工总是知道什么是允许的、什么正在被监控以及为什么,"费舍尔说。"在公司内网上发布你的治理方法,包括良好和有风险AI使用的真实例子。这不是为了抓住人们。你在建立使用AI是安全和公平的信心。"

泰勒建议发布官方认可的AI产品列表并保持更新。"明确尚未提供的能力的交付路线图,"他说,并提供请求例外或新工具的流程。这种开放性表明治理存在是为了支持创新,而不是阻碍创新。

帕特里亚表示,除了技术控制和明确政策外,建立专门的治理组织,如AI治理委员会,可以大大提高组织管理影子AI风险的能力。

"当潜在风险出现时,比如对DeepSeek和Fireflies.AI等工具的担忧,我们协作制定缓解策略,"她说。

这个治理组织不仅审查和处理风险,还解释其决定和背后的原因,帮助创造透明度和共同责任,帕特里亚补充说。

莫里斯表示同意。"透明度意味着没有惊喜。员工应该知道哪些AI工具获得批准、决策如何制定,以及在有问题或新想法时去哪里,"他说。

建立持续的、基于角色的AI培训

培训是防止意外误用AI工具的最有效方法之一。关键是简洁、相关和反复。

"保持培训简短、视觉化和特定角色,"费舍尔说。"避免冗长的幻灯片,使用故事、快速演示和清晰例子。"

帕特里亚表示巴布森学院将AI风险意识整合到年度信息安全培训中,并定期发送关于新工具和新兴风险的新闻通讯。

"提供常规培训课程以确保员工了解批准的AI工具和新兴风险,同时鼓励部门AI倡导者促进对话并分享实践经验,突出AI采用的好处和潜在陷阱,"她补充说。

泰勒建议将培训嵌入浏览器中,让员工直接在他们使用的工具中学习最佳实践。"复制粘贴到网络浏览器或拖放演示文稿看似无害,直到你的敏感数据离开了你的生态系统,"他说。

吉尔指出,培训应将负责任使用与绩效结果联系起来。

"员工需要理解合规性和生产力是协同工作的,"他说。"与影子AI相比,批准的工具提供更快的结果、更好的数据准确性和更少的安全事件。基于角色的持续培训可以展示防护措施和治理如何保护数据和效率,确保AI加速工作流程而不是创造风险。"

负责任的AI使用是良好的业务实践

最终,管理影子AI不仅仅是减少风险,更是支持负责任的创新。专注于信任、沟通和透明度的CIO可以将潜在问题转化为竞争优势。

"当系统给人们提供他们寻找的东西时,人们通常不会试图对抗系统,特别是当采用影子AI方法对用户来说摩擦更大时,"泰勒说。

莫里斯表示赞同。"目标不是吓唬人们,而是让他们在行动前思考,"他说。"如果他们知道批准的路径简单安全,他们就会选择它。"

这就是CIO应该努力的未来:一个人们可以安全创新、感到被信任去实验、并保护数据的地方,因为负责任的AI使用不仅仅是合规,更是良好的业务实践。

Q&A

Q1:什么是影子AI?它会带来哪些风险?

A:影子AI是指员工在未经IT部门批准的情况下自主使用生成式AI工具进行工作。主要风险包括数据隐私泄露、合规性问题和安全漏洞。据统计,43%的员工在个人设备上使用AI应用工作,25%使用未经批准的AI应用,这大大增加了组织的安全风险。

Q2:CIO应该如何对AI工具进行分类管理?

A:专家建议将AI工具分为三个简单类别:已批准、受限制和禁止使用。已批准的工具经过审查并得到支持;受限制的工具可在受控空间内使用,有明确限制,比如只能使用虚拟数据;禁止使用的工具通常是公共或未加密的AI系统,应在网络或API级别被屏蔽。

Q3:如何建立有效的AI工具库存管理?

A:有效的库存管理需要从定期审计转向持续、自动化的可见性管理。建议结合季度调查和自助注册系统,让员工记录使用的AI工具,然后通过网络扫描和API监控验证。同时要创造开放文化,让员工愿意分享他们使用的工具而不是隐藏。

来源:CIO.com

0赞

好文章,需要你的鼓励

2025

12/01

10:12

分享

点赞

邮件订阅