亚马逊云科技宣布,OpenAI的开放权重模型首次可通过Amazon Bedrock和Amazon SageMaker AI访问,帮助客户快速构建生成式人工智能(生成式AI)应用。OpenAI最新发布的两款开放权重基础模型——gpt-oss-120b与gpt-oss-20b,为企业提供更强大的AI技术,并借助全球覆盖最广、被客户广泛采用的亚马逊云科技服务,将OpenAI的影响力扩展至亚马逊云科技数百万客户。在Amazon Bedrock上运行的两个开放权重模型中的大尺寸模型,在性价比方面是同类Gemini模型的3倍、DeepSeek-R1的5倍以及OpenAI o4模型的2倍。此次发布进一步体现了亚马逊云科技在模型选择上对客户的承诺,不仅拓展了Amazon Bedrock已支持的广泛的托管模型,也通过Amazon SageMaker JumpStart为客户提供更多接入选择,进一步体现了亚马逊云科技在生成式AI技术领域的持续创新,以满足客户需求。
OpenAI的开放权重模型具备先进的推理能力,非常适合用于AI Agent场景,重塑企业的业务运营方式。借助Amazon Bedrock AgentCore,客户可部署并运行高效Agent,并借助在Amazon Bedrock上的OpenAI模型,为企业提供符合生产级需求的扩展性与安全性。客户还可将gpt-oss-120b与gpt-oss-20b无缝集成至Amazon Bedrock企业级安全架构中,利用如Guardrails(通过可配置安全策略可拦截高达88%的有害内容)等强大工具,未来还将支持自定义模型导入、知识库与个性化定制等功能。在Amazon SageMaker AI中,客户可结合OpenAI开放权重模型与完善的工具链,实现模型的预训练、评估、微调与部署。
亚马逊云科技产品总监Atul Deo表示:“开放权重模型将在生成式AI的未来发展中扮演重要作用,我们致力于将亚马逊云科技打造为运行模型的最佳平台,这是我们此次推出OpenAI模型的原因。OpenAI成为我们最新的开放权重模型提供方,这是亚马逊云科技持续将前沿AI带给全球各个组织的自然延伸。亚马逊云科技广泛的客户基础也将为OpenAI先进技术的获取方式带来变革性的转变。”
OpenAI产品负责人Dmitry Pimenov表示:“我们的开放权重模型广泛适用于从个人开发者到大型企业团队,正在助力各类用户在不同行业和应用场景中探索新的可能性。通过与亚马逊云科技的合作,我们正提供更强大、更灵活的工具,让客户能够以前所未有的效率构建、创新并实现规模化。”
随着企业日益拥抱Agentic AI,对具备复杂任务执行能力的多样化模型需求也在持续增长。OpenAI的开放权重模型兼具紧凑体量与强大性能,并具备先进的推理能力,支持调节推理深度与思维链输出,可将复杂问题分解为清晰的逻辑步骤,因而非常适用于Agent工作流、代码生成、科学分析和数学问题求解等场景。这些模型支持指令遵循与工具调用,包括网页搜索和代码解释器,能够获取实时信息并完成多步骤任务。模型支持128K上下文输入窗口,可处理更长的文档和对话内容,如客服记录、技术文档、学术论文等。安全性是这些开放权重模型的核心设计之一。为确保生成式AI应用的负责任部署,OpenAI对每个模型均进行了全面的安全训练与评估。
Amazon Bedrock目前已为全球数以万计的客户提供服务,覆盖各种规模与行业——从高速成长的初创公司,到《财富》500强企业和值得信赖的政府机构,助力他们根据自身需求,灵活、安全、负责任地构建、定制与创新生成式AI应用。众多客户包括DoorDash、GoDaddy、Lonely Planet、LexisNexis Legal & Professional、辉瑞、PGA TOUR、Rocket Companies、西门子和TUI等均已借助Amazon Bedrock推动业务流程现代化,开发下一代应用,并加速企业转型。OpenAI现已正式在Amazon Bedrock与Amazon SageMaker AI上线其开放权重模型,成为继DeepSeek、Meta、Mistral AI之后的又一重要模型提供方。这将进一步扩展客户根据自身需求自由选择与组合最优模型的能力。本次发布也持续丰富了Amazon Bedrock的模型阵容,目前该平台已汇聚来自领先AI公司的100多款模型,包括Luma AI, TwelveLabs和Writer等提供的托管模型,而亚马逊云科技是目前唯一提供上述模型托管服务的云服务商。
好文章,需要你的鼓励
2025年,企业技术高管面临巨大压力,需要帮助企业从持续的AI投入中获得回报。大多数高管取得了进展,完善了项目优先级排序方法。然而,CIO仍面临AI相关问题。支离破裂的AI监管环境和宏观经济阻力将继续推动技术高管保持谨慎态度。随着AI采用增长的影响不断显现,一些CIO预期明年将带来劳动力策略变化。
这篇论文提出了CJE(因果法官评估)框架,解决了当前LLM评估中的三大致命问题:AI法官偏好倒置、置信区间失效和离线策略评估失败。通过AutoCal-R校准、SIMCal-W权重稳定和OUA不确定性推理,CJE仅用5%的专家标签就达到了99%的排名准确率,成本降低14倍,为AI评估提供了科学可靠的解决方案。
FinOps基金会周四更新了其FinOps开放成本和使用规范云成本管理工具,新版本1.3更好地支持多供应商工作流。该版本新增了合同承诺和协商协议数据集,增加了跨工作负载成本分摊跟踪列,以及云支出和使用报告时效性和完整性的元数据可见性。随着云和AI采用推动企业IT预算增长,技术供应商正在关注将成本与价值联系起来的努力。大型企业通常使用三到四家云供应商,小企业可能使用两家,同时还有数据中心、SaaS和许可等服务。
NVIDIA团队开发出Fast-FoundationStereo系统,成功解决了立体视觉AI在速度与精度之间的两难选择。通过分而治之的策略,该系统实现了超过10倍的速度提升同时保持高精度,包括知识蒸馏压缩特征提取、神经架构搜索优化成本过滤,以及结构化剪枝精简视差细化。此外,研究团队还构建了包含140万对真实图像的自动伪标注数据集,为立体视觉的实时应用开辟了新道路。