根据Gartner公司的预测,到2026 年,30%的企业将因为人工智能(AI)生成的人脸生物识别深度伪造攻击而认为此类身份认证和验证解决方案不再能够起到可靠的作用。
Gartner研究副总裁Akif Khan表示:“过去十年在AI领域出现的几个拐点使创建合成图像成为了可能。这些人工生成的真实人脸图像被称为深度伪造,恶意行为者可利用这个手段骗过生物识别身份验证或令其失效。其后果是,企业可能会因为身份认证和验证解决方案无法分辨被验证者的脸是真人还是深度伪造,而开始质疑它们的可靠性。”
目前,使用人脸生物识别技术的身份认证和验证流程依赖于呈现攻击检测(PAD)评估用户的真实性。Khan表示:“数字注入攻击已经开始利用目前能够通过AI生成的深度伪造,而当前定义和评估PAD机制的标准与测试流程并未涵盖此类攻击。”
Gartner的研究表明,虽绕呈现攻击是最常见的攻击载体,但注入攻击(IAD)在2023年增长了200%。为防范此类攻击,需要结合使用PAD、IAD与图像检测。
通过结合使用IAD与图像检测工具减少深度伪造威胁
为帮助企业防范能够骗过人脸生物识别技术的AI生成深度伪造威胁,首席信息安全官(CISO)与风险管理领导人必须选择能够证明自己具备超越当前标准的能力和计划,并且正在对这些新型攻击进行监视、分类和量化的厂商。
Khan表示:“企业应该与专门投资于使用IAD和图像检测技术减少这种新型深度伪造威胁的厂商合作,开始制定最低的控制标准。”
在制定战略和最低标准后,CISO和风险管理领导人必须添加设备识别、行为分析等额外的风险和识别信号,以便提高检测到身份验证流程受到攻击的几率。
最重要的是,负责身份和访问管理的安全与风险管理领导人应该行动起来,通过选择能够验证真人的技术和落实防止账户接管的措施来降低AI深度伪造攻击所带来的风险。
好文章,需要你的鼓励
Amazon旗下秘密研发机构Lab126新成立团队,专注在机器人上嵌入自主代理AI,实现通过自然语言完成复杂任务,从而提升仓储物流与配送效率,同时开发高精度地图技术。
这项研究介绍了一种新型多模态扩散模型,能够同时生成量子电路的离散结构和连续参数。由因斯布鲁克大学和NVIDIA公司研究人员开发,该模型利用两个独立但协同工作的扩散过程处理门类型选择和参数预测,克服了传统量子电路编译方法的效率瓶颈。研究证明了该模型在不同量子比特数量、电路深度和参数化门比例下的有效性,并通过快速电路生成创建了数据集,从中提取出有价值的结构见解,为量子电路合成提供了新方向。
SenseFlow是香港科技大学等机构联合开发的文本到图像蒸馏技术,解决了大型流匹配模型蒸馏的三大难题。研究团队提出隐式分布对齐(IDA)稳定训练过程,段内引导(ISG)优化时间步重要性分配,并设计基于视觉基础模型的判别器提升生成质量。实验表明,SenseFlow能将SD 3.5和FLUX等12B参数级模型成功蒸馏为仅需4步生成的高效版本,同时保持甚至超越原模型在多项指标上的表现,代表了AI图像生成效率提升的重要突破。