随着企业纷纷借助AI技术革新运营流程,数据隐私问题正变得日益复杂且关键。其中,代理式AI(Agentic AI)作为一种能够自主执行任务而无需人工干预的技术,正逐渐成为焦点。顾名思义,代理式AI具备“代理”能力,能够独立决策并采取行动。IDC预测,到 2026 年,将有50%的中国 500 强企业的数据团队通过使用AI智能体(AI Agent)来实现数据准备和分析。
如今,AI智能体已在多个行业中得到广泛应用。在金融领域,AI智能体能够自主实时监控市场趋势、解读交易信号、调整投资策略并降低风险。在公共部门,AI智能体通过简化补助金资格评估等流程,提升政府工作效率和绩效水平,同时为公民提供个性化服务。
然而,尽管AI智能体带来了诸多便利,但其对大量个人身份数据的依赖也引发了严重的隐私问题,加剧了消费者对企业管理个人信息方式的不信任。尤其是在医疗和金融服务等高度依赖个人数据的关键领域,随着代理式AI的普及,这一问题将变得更加严峻。
根据益普索(Ipsos)的了解亚洲研究,尽管人们对AI技术充满期待,但对AI、数字隐私和安全的担忧也在增加。亚太地区70%的消费者对企业采集信息的方式表示担忧,在新加坡,这一比例更是高达81%。企业需认识到,制定并实施强有力的数据隐私政策不应是事后补救措施,而应成为可持续和负责任创新的基石。
区分和保护关键信息
保护消费者信任的第一步,也是最为关键的一步,是确保关键信息和个人身份信息(PII)的安全。AI对所有数据一视同仁,如果没有设定适当的参数,数据将被盲目使用。因此,若在缺乏健全保障措施的情况下部署AI智能体,敏感信息将面临被滥用的风险。
企业应投资于安全且受控的数据平台,采用全面的加密和通证化策略。这些措施应被统一应用于所有本地和云数据环境,以及各种存储解决方案。通过建立针对数据泄露和恶意攻击的强大防御体系,企业能够在保障数据安全的同时,安全地应用AI技术。
满足数据治理和安全要求
随着各国政府正在为保护公民数据隐私权而加强监管,企业遵守当地市场规则和数据主权法律的难度也在增加。而代理式AI的普及进一步加剧了这一挑战,因其系统通常需要访问历史数据和跨境数据才能高效运行。
为解决这一问题,企业需采用细粒度的数据治理方法并辅以零信任架构,即一种默认不信任任何用户或系统的安全模式。这涉及到准确识别特定客户数据的位置、采取适当的控制措施,并具备生成详细的审计报告的能力。
此外,为满足监管机构的要求和消费者的期望,企业还需建立数据删除或匿名化机制。Cloudera Shared Data Experience等解决方案能够在整合安全与治理的同时,确保正确的人员在正确的时间以正确的理由访问相应的信息。
将隐私和信任融入业务的全链条
在采用代理式AI的过程中,建立信任和透明的文化对于管理数据使用预期和创新的道德边界至关重要。在管理层面上,企业应采用“隐私设计”(Privacy by Design)原则,确保隐私在一开始就融入产品、服务和系统中,尤其是针对AI模型。对于消费者而言,培养“信任但要核实”的思维模式,是了解企业如何收集和使用数据的关键。
随着AI智能体越来越多地参与到涉及消费者数据的决策过程,企业需将透明度作为数据处理的重点。提高透明度不仅有助于建立信任,还能降低企业声誉和长期发展所面临的风险。
建立信任和保持透明度已成为企业不可忽视的责任。在代理式AI时代,成功的关键在于平衡创新与责任,确保数据隐私始终是可持续发展的基石。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。