根据Gartner公司的预测,到2026 年,30%的企业将因为人工智能(AI)生成的人脸生物识别深度伪造攻击而认为此类身份认证和验证解决方案不再能够起到可靠的作用。
Gartner研究副总裁Akif Khan表示:“过去十年在AI领域出现的几个拐点使创建合成图像成为了可能。这些人工生成的真实人脸图像被称为深度伪造,恶意行为者可利用这个手段骗过生物识别身份验证或令其失效。其后果是,企业可能会因为身份认证和验证解决方案无法分辨被验证者的脸是真人还是深度伪造,而开始质疑它们的可靠性。”
目前,使用人脸生物识别技术的身份认证和验证流程依赖于呈现攻击检测(PAD)评估用户的真实性。Khan表示:“数字注入攻击已经开始利用目前能够通过AI生成的深度伪造,而当前定义和评估PAD机制的标准与测试流程并未涵盖此类攻击。”
Gartner的研究表明,虽绕呈现攻击是最常见的攻击载体,但注入攻击(IAD)在2023年增长了200%。为防范此类攻击,需要结合使用PAD、IAD与图像检测。
通过结合使用IAD与图像检测工具减少深度伪造威胁
为帮助企业防范能够骗过人脸生物识别技术的AI生成深度伪造威胁,首席信息安全官(CISO)与风险管理领导人必须选择能够证明自己具备超越当前标准的能力和计划,并且正在对这些新型攻击进行监视、分类和量化的厂商。
Khan表示:“企业应该与专门投资于使用IAD和图像检测技术减少这种新型深度伪造威胁的厂商合作,开始制定最低的控制标准。”
在制定战略和最低标准后,CISO和风险管理领导人必须添加设备识别、行为分析等额外的风险和识别信号,以便提高检测到身份验证流程受到攻击的几率。
最重要的是,负责身份和访问管理的安全与风险管理领导人应该行动起来,通过选择能够验证真人的技术和落实防止账户接管的措施来降低AI深度伪造攻击所带来的风险。
好文章,需要你的鼓励
9月13日的PEC 2025 AI创新者大会暨第二届提示工程峰会上,“年度提问二:新工作时代:AI工作流由谁主导?”从企业实践到技术实现、从业务落地到战略决策,展开了一场高密度的思想碰撞与经验分享,将AI工作流背后的难题和解决路径彻底揭开。
土耳其伊斯坦布尔Newmind AI团队开发出首个专门针对土耳其语的AI幻觉检测系统Turk-LettuceDetect,能够逐字识别AI生成内容中的虚假信息。该系统使用三种不同的AI模型,在包含17790个样本的数据集上训练,最佳模型达到72.66%的检测准确率。这项研究填补了土耳其语AI安全检测的空白,为8000万土耳其语使用者提供了更可靠的AI交互体验。
在9月13日召开的“PEC 2025 AI创新者大会暨第二届提示工程峰会”上,一场主题为“新创意时代,AI如何定义‘第十艺术’?”的圆桌对话引发了热烈讨论。至顶AI实验室联合主理人路飞携六位数字艺术家与AI创业者,围绕AI在艺术中的角色、价值与未来展开了一场深度对谈。
法国研究团队开发了"推理核心"训练环境,专门培养AI的基础推理能力。该系统包含18个核心任务,涵盖逻辑推理、规划、因果分析等领域,能无限生成新题目并精确控制难度。与传统依赖固定题库的方法不同,推理核心专注于培养通用认知能力,并使用专业工具验证答案。GPT-5测试显示任务具有挑战性,为AI推理能力发展开辟新路径。