ZD至顶网CIO与应用频道 09月06日 北京消息:Teradata天睿公司(Teradata Corporation,纽交所:TDC)宣布为全球最先进的多类型分析引擎推出重要的新部署方案Teradata Aster Analytics on Hadoop。与旧版Aster Analytics需要专用系统相比,企业目前可依托既有Hadoop平台,灵活快速地获取有价值的分析洞察力。
这种方案的灵活性印证了Teradata天睿公司在混合云(Hybrid Cloud)架构上的宏伟战略。该下一代架构具备更高级别的敏捷性、灵活性与系统间整合能力,是一套更加接近于高级分析的开放系统。随着传感器、数字移动设备等物联网(IoT)设备生成海量数据,促使各厂商开发Hadoop等定制化架构方案。
ESG Global高级分析师Nik Rouda表示:“众多企业尝试在协作的多租户环境下将高级分析功能纳入既有基础设施。Teradata天睿公司依托Aster Analytics on Hadoop恰好满足了企业需求。新部署方案帮助用户配置分析环境,并着手分析数据湖中存储的数据。企业能够缩短创造价值的时间,满足不同企业用户社区的各种分析需求,并创造显著的经济优势。”
开源高级分析组件包的设计通常无法兼顾业务分析师需求,这些软件包需要使用、部署和维护的专业技能。虽然高级分析工具经调整可以与Hadoop平台一起工作,但这些工具未经过专门设计,无法在Hadoop平台上运行。因此,这些工具通常需要将数据提取到专用平台,在用户、数据和使用案例上的可扩展性不足。
Cloudera公司首席战略官兼联合创始人Mike Olson表示:“Apache Hadoop的核心竞争力是可拓展性及能够支持各种分析和处理引擎。Teradata Aster Analytics on Hadoop展现分析技术实质的进步,它为客户带来功能强大的新方案,满足客户对高标准分析应用的需求。”
Teradata Aster Analytics在同一界面和语法框架内提供文本、路径、模式、图像、机器学习、统计等功能。新方案具备灵活部署能力和其它显著优势:
Aster Analytics on Hadoop
l 扩展Hadoop数据湖的使用范围和价值——Aster Analytics帮助业务分析师运用SQL和R语言技能访问Hadoop平台,使得Aster支持分析社区更多用户。
l 在Hadoop平台上本地运行——勿须将数据从Hadoop迁移到分析服务器,用户能够规避与数据迁移相关的各项成本、延迟及安全性风险,并加速数据分析过程。
l 在Hadoop平台上迅速实施分析——用户能够在同一Hadoop集群内对同一组数据单独开发沙盒和生产环境。此外,Aster提供应用中心(AppCenter),帮助分析师为商业用户搭建基于Web的界面。
Teradata 天睿公司产品和营销副总裁Chris Twogood 表示:“在Hadoop平台上本地运行Aster Analytics是行业重大突破,能够显著提升所有企业的Hadoop技术投资回报率。Aster一贯致力于帮助分析师进行大规模大数据分析。但是现在随着Hadoop平台高级分析方案首次全面普及,业务分析师和数据科学家将能够访问并运用路径、机器学习和图像算法分析数据。Teradata全新的Hadoop部署方案将以更快的节奏、最低的成本和风险,为更多用户提供敏捷的企业就绪型分析能力。”
Teradata Aster Analytics on Hadoop 7.0通用版将于2016年10月正式发布。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。