根据Gartner的研究,随着全球隐私法规数量的不断增加,企业机构应关注五项重大隐私趋势,以应对保护个人数据和遵守监管要求方面的挑战。
Gartner研究副总裁Nader Henein表示:“根据Gartner的预测,到2024年末,全球75%人口的个人数据将得到现代隐私法规的保护。这一监管方面的进步已成为推动企业机构加强隐私保护的主要动力。由于多数企业机构尚未形成专门的隐私保护实践,隐私保护责任落到了技术人员身上,更确切地说,落到了首席信息安全官所领导的安全团队身上。”
未来两年,几十个司法管辖区将陆续实施隐私法规,因此许多企业机构认为有必要马上启动隐私工作计划。根据Gartner的预测,到2024年,大型企业机构的年均隐私预算将超过250万美元。
Gartner发布了当前到2024年的五大隐私趋势,能够推动企业机构形成和完善隐私保护实践。在企业机构内部,各个业务领域的领导者应积极传播这些趋势,从而更容易达成共识、创造更大价值并显著缩短价值实现时间。
数据本地化
在一个无国界的数字社会中,设法对数据所在国进行控制似乎有违常识,但许多新出台的隐私法规直接或间接地提出了此种要求。
安全和风险管理领导者面对着尺度不一的监管环境,在不同地区需要采取不同的本地化策略,这使得企业机构为应对跨国业务战略风险而采取一种适合所有服务模式的新型云服务设计和获取方法。由此,数据本地化规划将成为云服务设计和获取方面的首要任务。
隐私增强计算技术
在公有云等不可信环境中进行数据处理以及与多方共享和分析数据,已成为企业机构取得成功的基础。随着分析引擎和架构的日益复杂化,厂商必须提前在设计中加入隐私保护功能,而不是在产品完成后再添加这一功能。企业机构已将AI模型运用至很多领域,同时也必须对AI模型进行训练,这给隐私保护带来了新的隐患。
与常见的静态数据安全控制不同,隐私增强计算(PEC)可以对使用中的数据实施保护。因此,企业机构可以执行此前因隐私或安全担忧而无法实现的数据处理和分析活动。Gartner预测,到2025年60%的大型企业机构将使用至少一种PEC技术来支持分析、商业智能和/或云计算的应用。
AI治理
Gartner的一项调查发现,40%的企业机构存在AI侵犯隐私问题,其中仅有四分之一属于恶意行为。企业机构在处理个人数据时,无论是借助厂商产品中预先集成的AI模块,还是利用内部数据科学团队管理的独立平台,都存在明显的隐私泄露风险和个人数据滥用隐患。
Henein表示:“目前在企业机构中运行的AI模型,大多集成在更大型的解决方案中,几乎没有任何监控手段来评估相关的隐私影响。这些嵌入的AI能力被用于追踪员工行为、评估消费者情绪并构建可在运行中持续学习的“智能”产品。此外,当前被输入至这些学习模型中的数据也将对多年后的决策产生影响。未来,当AI监管法规更为成熟时,企业机构几乎不可能清除在AI治理计划缺位时所采集的‘有毒’数据。IT领导者将不得不放弃整个系统,这将使企业机构及其自身地位蒙受巨大损失。”
集中式隐私用户体验
消费者要求数据主体权利的呼声越来越高,对公开透明的期望也在升高,使得企业机构更重视打造集中式隐私用户体验(UX)。具有远见的企业深谙将通知、cookie、同意管理、主体权利请求(SRR)处理等隐私用户体验的所有构成要素整合至一个自助服务门户的优势。这种方法不但为关键用户群体、客户和员工提供便利,还能节省大量时间和成本。Gartner预测,到2023年,30%面向消费者的企业机构将推出可支持偏好和同意管理的自助式透明门户。
远程模式进化为“万物皆混合”
随着个人在工作和生活中更多地采用混合互动模式,追踪、监测等个人数据处理活动将变得更加频繁,并且隐私风险已变得极为严重。
完全混合的互动方式对隐私产生了诸多影响。同时,在各个行业和领域,员工的生产力以及对工作与生活平衡的满意度也有所提升。企业机构在处理隐私问题时应采取以人为本的方法,尽可能减少监测数据的使用,实际使用时应带有明确目的,例如通过杜绝不必要的摩擦来改善员工体验,或通过向员工发出健康风险信号来降低倦怠风险。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。