从去年的银色亮片夹克,到今年的彩色背带裤,亚马逊云科技安全副总裁Hart Rossman的穿搭,在人群中依旧抢眼。
作为亚马逊云科技的第一位安全顾问,Hart Rossman已在公司工作了13年。今年,他特意以这身造型亮相re:Inforce,是因为要做一场关于如何在亚马逊云科技上构建生成式AI安全基础的分享。
这既是他的个人风格,也为生成式AI安全增加了“可见度”。
Hart Rossman强调,面对生成式AI,企业需要一套“深度防御”策略:先做策略、流程、意识培训和教育,然后才是技术层面的起点,身份与访问控制。
此外,亚马逊云科技也是首个通过FedRAMP High和美国国防部IL-4/5认证的云服务商,适用于Anthropic和Meta基础模型。“我们正在追求最高等级的安全保障来服务客户。”Hart Rossman认为。这并不是终点,亚马逊云科技始终从客户需求出发,持续学习、不断挑战自我,力求把安全性做到更好。
亚马逊云科技安全副总裁Hart Rossman
生成式AI让安全范式发生转移
一年前,大家在面对生成式AI时,提出的问题不是担忧,更多是出于不了解。因为当你没有用过一种新技术是,自然不知道会遇到什么。
Hart Rossman看到生成式AI有两个特别值得注意的现象,这有助于企业理解AI安全的核心基础。
第一个现象是,关于大语言模型,如今的授权模型早已不再是针对单个数据元素,不像过去那样在数据库中设置行级或单元格级别的权限。在大语言模型里,所有信息从技术上讲对用户都是可访问的。那么问题变成,我们该如何为整个模型本身建立访问控制和授权机制,而不是针对模型内部每条数据逐个控制。
亚马逊云科技也在探索如何构建与大语言模型交互的分布式系统,比如RAG框架、API接口、接入外部数据集。但需要注意的是,更多大语言模型的训练是预先完成的,意味着它的访问模型是固化的。
Hart Rossman解释称,这有点像编译型代码和解释型代码的区别:我们习惯在解释型环境里实现授权逻辑,随时查看和调整执行过程;现在一旦模型训练完成,就像代码已经编译好,内部细节便无法再查看或修改。
因此,真正要做的是对“模型本身”进行访问控制和授权,而不是对其底层训练数据进行授权。
第二个现象是,我们正在迈向AI智能体阶段,企业已经开始把AI智能体当作“虚拟同事”来看待。
许多组织将AI智能体视作更复杂分布式系统中的一部分,因此问题变成:如何合理赋予AI智能体权限,确保它在安全可控的前提下完成任务。就像任何深度防御策略一样,一切都要从身份开始,然后是架构、数据、运维、响应。
用生成式AI改写安全运营三大环节
将安全融入开发、升级流程的能力,正在变得越来越重要,亚马逊云科技的安全团队正在三个方面融入生成式AI。
第一是代码辅助,比如,使用Amazon CodeGuru或其他编码助手,开发者可以在编码阶段自动执行安全检查,实现“安全左移”,也就是在软件开发生命周期的早期,就把潜在的安全隐患消除。同时,客户可以通过Amazon Q for Business对旧有Java代码进行升级改造,并在这个过程中自动完成安全加固和依赖项更新。
第二是漏洞评估和渗透测试,很多客户和合作伙伴已经能够实现这类工作的自动化。如果再结合传统的模糊测试(fuzz testing),就能从整体安全测试策略中获得更高质量的检测结果。
第三是,事件响应,事件响应的本质是调查,涉及数据分析、解读和推理。不仅亚马逊云科技客户安全事件响应团队(CIRT)在使用生成式AI辅助调查,很多合作伙伴和客户也开始将生成式AI工具与人类分析师协作,提升事件响应的效率与判断质量。
Hart Rossman最近最常用的服务就是全新的Amazon Security Hub,其在原有基础上进行了全面升级,变得更加直观、易用,带来了既强大又简洁的安全运营体验。他用了新版本一段时间后,现在甚至有些记不清旧版是什么样子了。
他非常喜欢Amazon Security Hub的一点是,关键信息能在关键时刻出现在你面前。他谈到,Amazon Security Hub可以更好地进行漏洞优先级管理,也能直观展现来自Amazon GuardDuty检测的攻击路径。
Hart Rossman的团队负责运营的Amazon Security Response Service,与Amazon GuardDuty 和Amazon Security Hub是深度集成的。这次新功能升级,让团队在处理客户实时安全事件时,响应速度和处置效率都得到进一步提升。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
莫斯科高等经济学院研究员尼古拉·斯克里普科开发了IFEval-FC基准测试,专门评估大语言模型在函数调用中遵循格式指令的能力。研究发现,即使是GPT-5和Claude Opus 4.1等最先进模型,在处理看似简单的格式要求时准确率也不超过80%,揭示了AI在实际应用中的重要局限性。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室联合多家机构推出MinerU2.5文档解析模型,仅用12亿参数就在文本、公式、表格识别等任务上全面超越GPT-4o等大型模型。该模型采用创新的两阶段解析策略,先进行全局布局分析再做局部精细识别,计算效率提升一个数量级。通过重新定义任务标准和构建高质量数据引擎,MinerU2.5能准确处理旋转表格、复杂公式、多语言文档等挑战性内容,为文档数字化提供了高效解决方案。