随着人们日益意识到其个人信息的价值并对透明度的缺乏和持续的滥用感到失望,数字伦理登上了Gartner 2021年隐私技术成熟度曲线的顶点。
Gartner将数字伦理定义为人、企业机构和物之间开展电子交互所遵循的价值和伦理道德原则体系。随着人工智能的采用,人们首次在广泛部署一项技术之前和在此过程中就开始进行伦理道德讨论。
企业机构正在采取保护个人数据安全的行动,各国政府也正在实施严格的法律来强制执行此类措施。Gartner预测,到2023年底,全球80%以上的公司将面临至少一项以隐私为重点的数据保护法规。
Gartner研究副总裁Bart Willemsen表示:“即使在尚未制定法规的地方,客户也在积极选择与尊重他们隐私的企业机构合作。新技术的应用(例如本技术成熟度曲线上的技术)将在这个不断变化的环境中提供保护隐私的途径。”
为了应对这些法律和客户需求变化,安全和风险管理领导人必须谨慎选择平衡创新和合规的技术。Gartner预测,到2024年,全球每年由隐私驱动的数据保护和合规技术支出将超过150亿美元。
积极主动而成熟的企业机构正在从被动合规转向主动隐私设计。这可以让他们开始投资于位于技术成熟度曲线左侧的创新,例如同态加密(一套能够在加密数据上进行计算的算法)和差别隐私(使用或共享一个数据集,同时隐瞒或歪曲其中某些个人信息的系统)。
技术成熟度曲线上的云访问安全代理(CASB)和动态数据屏蔽等多项技术预计将在未来两年得到广泛采用(见图一)。
图一、2021年隐私技术成熟度曲线
来源:Gartner(2021年9月)
新加入今年隐私技术成熟度曲线中的创新有:
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。