致力于将 AI 技术应用于复杂环境中数据的Cloudera宣布推出最新版本Cloudera Data Services,将私有 AI 引入本地环境,并为企业在其防火墙后提供安全可靠的 GPU 加速生成式 AI 功能。凭借内置的治理功能和混合移植能力,企业现在可以在自己的数据中心构建和扩展主权数据云,从而消除安全隐患。Cloudera 可以在本地环境和公有云中提供完整的数据生命周期服务以及云原生服务。
对敏感数据和知识产权安全的担忧阻碍了各行各业的企业采用AI。埃森哲调查显示,77% 的企业缺乏保护关键模型、数据管道和云基础设施所需的基础数据和AI安全实践。Cloudera 直接解决了企业AI面临的安全和知识产权风险,支持客户将从原型到生产的时间从数月缩短至数周。
最新版本将 Cloudera Data Services 的优势引入企业数据中心。用户可以显著降低基础设施成本,简化数据生命周期,从而提升数据团队的生产力。他们还可以加速工作负载部署,通过自动化复杂任务来增强安全性,并更快地实现 AI 部署的价值。除了提升从业人员体验和企业级就绪性之外,用户现在还可以在防火墙后获得云原生敏捷性,从而在不牺牲安全性的情况下实现高效扩展。
作为此次发布的一部分,Cloudera AI 推理服务和 AI Studios 现已在数据中心提供。这两款最初为公有云场景打造的工具,旨在解决企业 AI 应用面临的最大障碍。此次发布支持企业在其自有数据中心的安全环境中安全地构建和运行生成式AI应用、加速AI部署,从而将敏感知识产权保护在防火墙之内。以下是这两款工具如何在本地环境中实现价值:
Cloudera委托Forrester Consulting开展了一项名为“Total Economic Impact™”(或TEI)的独立研究,对使用Cloudera Data Services本地版的企业代表进行了采访。结果显示,企业采用Cloudera Data Services本地版后,其工作负载部署的价值实现时间缩短了80%,数据从业人员和平台团队的生产力提高了 20%,并且现代云原生架构节省了 35% 的总体成本。研究还显示运营效率的显著提升,部分企业的硬件利用率从30%提高至70%,并且在升级后所需的硬件容量减少了25%至50%以上。
行业分析师Sanjeev Mohan 表示:“过去,企业被迫拼凑复杂且脆弱的 DIY 解决方案,以便在本地运行 AI。如今,采用 AI 的紧迫性毋庸置疑,但对数据安全的担忧也同样不容忽视。企业需要的是能够简化 AI 部署、提高生产力,同时又不损害安全性的解决方案。”
Cloudera首席产品官Leo Brunnick表示:“Cloudera Data Services本地版为本地环境带来了真正的云原生体验,在兼顾敏捷性和效率的同时,不影响安全性和可控性。该版进一步推动了数据的现代化进程,从单一集群向灵活的容器化应用套件转变。”
BNI 首席信息官 Toto Prasetio 表示:“BNI 很荣幸成为 Cloudera AI 推理服务的早期使用者。这项技术提供了必要的基础设施,让我们能够安全高效地扩展生成式 AI 计划,同时又符合印度尼西亚不断变化的监管环境要求。这标志着我们朝着为印度尼西亚人民提供更智能、更快捷、更可靠的数字银行解决方案的使命迈出了重大一步。”
该产品正在Cloudera年度数据与AI大会EVOLVE25上进行演示,大会于本周在新加坡拉开帷幕。现在报名参加EVOLVE25,深入了解Cloudera如何在企业数据所在的复杂环境中提供领先的数据服务,赋能无所不在的AI。
如需了解有关 Cloudera Data Services 如何加速 AI 部署和执行的更多信息,请于 2025 年 10 月 15 日太平洋时间上午 8:00 | 美国东部时间上午 11:00 | 格林威治标准时间下午 4:00 | 欧洲中部时间下午 5:00 收听 ClouderaNow,直接联系我们或访问 Cloudera AI Inference。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。