幻觉一直是大模型输出的最大“天敌”,幻觉也就是我们常说的一本正经地“胡说八道”,生成内容不遵循原文或者不符合事实。无论多先进的模型,都无法完全避免这一问题。Vectara HHEMAI幻觉排行榜最新数据显示,DeepSeek-V3幻觉率为3.9%,受到各界热捧的DeepSeek-R1则为14.3%。
尽管如此,也不影响这个最先进的模型在企业中的部署速度,几乎一夜之间,云、硬件、软件厂商迅速接入DeepSeek,亚马逊云科技也是第一批宣布接入DeepSeek的云厂商之一,目前在Amazon Bedrock和Amazon SageMaker AI中提供了4种部署DeepSeek-R1系列模型的方式。然而,企业在快速接入模型时,很可能没有考虑其会造成的潜在安全风险,尤其是敏感信息防护、负责任的AI和合规等一系列问题。
亚马逊云科技深知AI安全的重要性,并为其安全防护做足了准备。因为安全一直是亚马逊云科技的第一要务。2024年亚马逊云科技re:Invent上,亚马逊云科技CEO Matt Garman再次重申:“安全性必须是构建业务的根基!”亚马逊云科技提供了安全防护三部曲,涵盖基础的安全防护,有害内容的过滤防护,以及稳健的深度防御策略,为企业AI创新保驾护航。
构筑AI安全基石:基础安全防护
自2023年4月亚马逊云科技推出Amazon Bedrock以来,经过持续更新与优化,它已成为企业构建和扩展生成式AI应用最简单的方法。目前Amazon Bedrock提供了全面的安全功能,帮助保障开源和开放权重模型的托管与运营安全,同时确保数据隐私和合规性。主要功能包括静态数据和传输中数据加密、细粒度访问控制、安全连接选项以及各种合规认证。
亚马逊云科技人工智能和数据副总裁Swami Sivasubramanian博士表示,Amazon Bedrock拥有广泛的模型选择、领先的功能,使开发人员能够更轻松地将生成式AI集成到其应用中,并且注重安全和隐私。
亚马逊云科技通过全面的全平台安全和合规措施进一步增强了这些功能,例如:通过Amazon KMS密钥管理服务对静态数据和传输中数据进行加密;通过Amazon IAM进行身份与访问管理;通过部署Amazon VPC虚拟私有云、VPC终端节点以及用于传输层安全(TLS)检查和严格策略规则的Amazon Network Firewall网络防火墙服务来实现网络安全;提供针对亚马逊云科技账户层面治理的服务控制策略;使用用于访问限制的安全组和网络访问控制列表(NACL);提供包括HIPAA、ISO、GDPR在内的国际主流合规认证;通过Amazon CloudWatch和Amazon CloudTrail进行监控和日志记录等。
亚马逊云科技还会对所有模型容器进行漏洞扫描,并且仅接受 Safetensors格式的模型,以帮助防止不安全的代码执行。
防止AI幻觉:有害信息处理
此前亚马逊云科技就推出了Amazon Bedrock的安全防护栏Guardrails功能,帮助企业轻松实施生成式AI应用程序的保护措施,并根据自身需求和负责任AI政策进行定制。
Guardrails功能提供的多重保障包括:过滤不良内容、删除个人身份信息(PII)以及提升内容的安全性和隐私性。用户可以根据具体使用场景和负责任的 Al 策略,配置多样的安全策略,包括禁止回复话题、内容过滤、词语过滤器、PII(个人敏感信息)删除、上下文验证的准确性检查以及根据预定回复策略文档的自动推理检查。
Guardrails功能主要有两种使用方式,第一,它可以直接与调用模型式(InvokeModel)或对话式(Converse)API集成,在推理过程中,防护机制会应用于输入提示和模型输出。第二,可以通过ApplyGuardrail API调用,允许在不调用模型的情况下直接评估内容,适用于在应用程序各个阶段评估输入或输出,尤其对处理自定义模型或第三方模型非常有用。
2024年亚马逊云科技re:Invent,Amazon Bedrock Guardrails还推出了防止幻觉的自动推理检查功能,可以让Amazon Bedrock验证事实响应的准确性,生成可审计的输出,并向客户清晰展示模型得出结果的原因。这提升了透明度,确保模型响应符合客户的规则和政策。
例如用户可以通过Amazon Bedrock的自定义模型导入功能导入DeepSeek-R1蒸馏模型,并为其创建一套包含多种过滤策略的安全护栏。对于通过Amazon Bedrock和Amazon SageMaker导入的开放权重蒸馏模型,亚马逊云科技建议设置以下关键过滤器:提示词攻击防护、内容审查、主题限制和敏感信息保护。
“以前大模型缺乏可证明事实的逻辑,导致出现幻觉时难以纠正。”亚马逊云科技大中华区产品部总经理陈晓建说,有了自动推理技术,我们能够通过数学验证方式严密证明事实性错误是否会发生,从而有效改善幻觉问题。
完整的深度防御策略:AI安全的全栈屏障
针对生成式AI带来的安全挑战,企业需要构建一套完整的深度防御策略,包括韧性的企业架构、全生命周期的安全设计、安全的云基础架构、经典的分层防御策略以及信任边界控制等多个方面。
企业可以在架构中部署分层的亚马逊云科技安全服务,在保障云环境的同时,保护生成式AI工作负载的安全。同时企业还可以利用Amazon SageMaker和Amazon Bedrock等AI/ML服务中提供的增强型安全和隐私功能,为AI应用增加更多层面的强化安全和隐私控制。
在生成式AI时代,企业需要更加关注安全问题,从开始就要对DeepSeek等模型实施安全防护。通过基础防护、有害信息处理和深度防御三重策略,降低提示注入攻击、内容滥用等风险,确保AI应用符合道德和监管要求。
在AI安全环境快速演变的背景下,企业同时需定期审查和更新防护机制,持续优化安全控制,以应对新兴威胁。可以肯定的是,Amazon Bedrock结合云安全服务和最佳实践,提供了一致的安全框架,保护企业当前及未来的开放权重模型。只有将安全置于首位,企业才能在保障合规与稳定的基础上,高效推动AI创新与落地,实现技术价值的最大化。
好文章,需要你的鼓励
本文揭示了AI时代CIO的七项关键行为特征,基于对多位CIO和AI专家的深度访谈。专家指出,AI精通的CIO需具备实用AI素养、战略视野和变革领导力,能将技术与业务战略对齐,建立强大数据治理基础。文章详细解析了分析型AI、生成式AI和智能体AI三大技术领域,强调数据基础的重要性,并提出CIO应从项目思维转向产品思维,通过跨职能团队实现端到端价值交付。
斯坦福大学等机构联合开发的CIFT系统首次解决了机器人"近视眼"问题,通过精确控制真实数据和合成数据的混合比例,让机器人在陌生环境中的表现提升54%以上。该系统包含多视角视频增强引擎MVAug和数据组合优化策略,能够预测数据失效的"去相干点",确保机器人学习真正重要的任务特征而非环境表象,为实用化通用机器人奠定了重要基础。
尽管苹果在AI竞赛中看似落后,但其私有云计算基础设施展现了技术优势。当行业为追赶大语言模型而降低隐私标准时,苹果坚持原则,开发出保护用户数据隐私的技术方案。谷歌最新宣布的类似实施方案验证了苹果技术路线的正确性,这可能推动其他AI实验室采用相同做法,为用户隐私带来重大胜利。
香港中文大学研究团队开发的Search-R3系统成功解决了大语言模型推理与搜索分离的问题,通过两阶段训练让AI在深度思考过程中直接生成搜索向量。该系统在多个领域测试中显著超越现有方法,特别是启用推理后性能提升明显,为AI系统设计提供了推理与搜索统一的新范式,展现了从专门化向通用化发展的重要方向。