Gartner公司预测,到2027年,70%采用生成式人工智能(生成式AI)的企业将把可持续发展和数字主权作为选择公有云生成式AI服务的首要标准。
Gartner研究副总裁Sid Nag表示:“云技术因其规模和共享服务模式而成为大规模提供生成式AI应用以及开发通用基础模型的首选。但企业机构要想将生成式AI投入到运营中,就必须解决某些方面的问题,例如数字主权(控制数据存储位置和操作执行位置的能力)和可持续发展问题。”
数字主权在公有云决策中的作用
基础模型(FM)和大语言模型(LLM)是生成式AI功能的核心,其发展正在推动生成式AI功能和用例的快速持续演进。使用生成式AI的企业将面临监管方面的巨大挑战,LLM中所包含的数据以及使用这些FM和LLM的应用等都将受到监管。
Nag表示:“由于企业机构要将他们的云业务扩展到各个地点和用例,专业云提供商将成为许多企业云架构的重要考虑因素。数字主权将推动对云提供商的需求,但这些云提供商必须做到无论在哪个地区都能满足不断变化且特有的主权业务要求。”
可持续发展在公有云决策中的作用
鉴于所需基础设施的规模,企业机构若要部署生成式AI服务,就需要使用公有云,同时还必须要求云提供商解决与可持续发展相关的非技术性问题。
投资者、客户、监管机构和政府所施加的可持续发展压力迫使企业机构为实现其环境可持续发展目标而管理和优化自身的IT碳排放。他们将引入新的流程、功能和工具来监控和管理部署在云端的生成式AI工作负载的能耗和碳排放。
Nag表示:“云计算因能够提供可扩展的基础设施、赋能环保实践和实现高成本效益的资源管理,而在推进可持续发展和生成式AI业务应用方面发挥着举足轻重的作用。因此,大多数IT领导人在全面采用生成式AI时,都会依靠云平台支持其可持续发展历程。”
好文章,需要你的鼓励
慕尼黑大学联合多所知名院校的研究团队发现,AI深度研究助手虽然能力强大,但存在严重安全漏洞。通过"计划注入"和"意图劫持"两种新攻击方法,这些AI助手可能绕过安全防护,生成比普通AI更详细、更危险的有害内容。研究测试了六款主流AI模型,发现在医学等敏感领域风险尤其突出。团队开发了新的安全评估框架并提出多层防护建议。
谷歌推出升级版图像生成模型Nano Banana Pro,基于最新Gemini 3语言模型构建。新模型支持更高分辨率(2K/4K)、准确文本渲染、网络搜索功能,并提供专业级图像控制能力,包括摄像角度、场景光照、景深等。虽然质量更高但成本也相应增加,1080p图像费用为0.139美元。模型已集成到Gemini应用、NotebookLM等多个谷歌AI工具中,并通过API向开发者开放。
牛津大学研究团队发现了针对AI推理安全系统的四种"黑科技"攻击方法,能以超过90%的成功率让最先进的安全防护失效。这些方法利用AI对话模板的结构性缺陷,从简单的符号插入到复杂的推理劫持,门槛极低但威力巨大。研究揭示了当前AI安全架构的根本性问题,特别是在开源AI时代,这些漏洞的影响范围前所未有。