近日,可信的企业人工智能数据公司肯睿Cloudera宣布进一步扩大其与NVIDIA的合作。Cloudera Powered by NVIDIA将把NVIDIA AI Enterprise软件平台中的企业级NVIDIA NIM微服务集成到Cloudera Data Platform上的AI/ML工作流程服务Cloudera Machine Learning中,为客户提供快速、安全和精简化的生产级端到端生成式AI工作流程。
结合专为大语言模型(LLM)优化的综合全栈平台后,企业数据在推动企业生成式AI应用从试点到生产的过程中,发挥了至关重要的作用。借助NVIDIA NIM和NeMo Retriever微服务,开发人员能够将AI模型与他们的业务数据(包括文本、图像和各种可视化图,如条形图、折线图和饼图等)相关联,生成高度准确且符合上下文语境的回答。NVIDIA AI Enterprise提供专为构建、自定义和部署企业级LLM而优化的运行时,使用上述微服务的开发人员可以通过它部署应用。Cloudera Machine Learning充分利用NVIDIA微服务,将高性能AI工作流程、AI平台软件和加速计算应用于数据,使客户能够从他们委托Cloudera管理的企业数据中挖掘出价值。
肯睿Cloudera 将推出多项集成NVIDIA微服务的功能。Cloudera Machine Learning 将通过集成NVIDIA微服务支持的模型和应用服务,提升所有工作负载的模型推理性能。借助这项全新的AI模型服务功能,客户部署在公有云和私有云上的模型都能实现容错、低延迟服务和自动扩展。此外,Cloudera Machine Learning 还将提供集成式 NVIDIA NeMo Retriever 微服务,简化自定义 LLM 与企业数据的连接。用户可通过这项功能构建基于检索增强生成(RAG)的生产级应用。
Cloudera此前曾与NVIDIA合作,通过将NVIDIA RAPIDS Accelerator for Apache Spark集成到Cloudera Data Platform,利用GPU优化数据处理。现在,随着NVIDIA微服务计划的加入以及与NVIDIA AI Enterprise 的集成,Cloudera Data Platform 将成为可提供精简化端到端混合 AI 管道的平台。
肯睿Cloudera亚太区高级副总裁Remus Lim表示:“NVIDIA在人工智能计算领域的领先地位与Cloudera在数据管理领域深厚的专业积累相得益彰。通过这次合作,我们将赋能客户创建出能够产出高度精确数据和见解的模型。这些模型得到企业的信赖,并能在一个安全的机器学习(ML)环境下运作,满足日新月异的需求。我们很高兴能够助力客户加速其人工智能之旅,无缝地从AI的探索和实验阶段过渡到在整个组织内的大规模部署。”
未来,各个行业的企业都将能够更加快速、直观地构建、自定义和部署支持变革性生成式AI的 LLM,包括加快开发时间的编码协作机器人、自动执行客户互动和服务的聊天机器人、快速处理文档的文本摘要应用、精简化的上下文搜索等各种应用。这些创新技术使整个企业的数据和高级AI流程变得更加简单和快捷,最大程度地缩短了实现业务价值的时间,增加了收入来源并优化了成本。
肯睿Cloudera AI/ML产品副总裁Priyank Patel表示:“Cloudera正在通过集成NVIDIA NIM和CUDA-X微服务,为Cloudera Machine Learning提供助力,帮助客户将AI热潮转化为实实在在的业务成果。除了为客户提供强大的生成式AI功能和性能外,此次集成的成果还将助力企业做出更加准确且及时的决策,同时减少预测中的不准确性、幻觉和错误。这些都是适应当今数据环境的关键因素。”
NVIDIA企业产品副总裁 Justin Boitano 表示:“企业迫切希望将其海量数据运用于生成式AI,创造出定制化的辅助系统和生产力工具。通过将NVIDIA NIM微服务集成到Cloudera Data Platform,开发人员能够更加轻松且灵活地部署推动业务转型的LLM。”
Cloudera将在AI时代的开发者峰会NVIDIA GTC上展示全新的AI功能。本届GTC于3月18日至21日在加利福尼亚州圣何塞市的圣何塞麦克内里会展中心举行,参加者包括影响AI和加速计算领域下一步发展方向的企业与创新者。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。