人工智能初创公司aiOla推出基于流匹配训练技术的语音AI模型Drax,挑战OpenAI和阿里巴巴等巨头。该模型重新定义语音算法训练方式,能在嘈杂环境中准确识别语音,兼顾速度与准确性。相比OpenAI的Whisper和阿里巴巴Qwen2,Drax采用并行流处理技术,速度提升32倍,词错误率仅7.4%。该模型已在GitHub开源,提供三种规模版本。
Lemony.ai发布开源工具Cascadeflow,通过动态路由提示到最具成本效益的语言模型来削减AI应用开发成本。该软件采用级联管道,先使用小型廉价模型处理提示,根据质量指标评估结果,不达标则升级到更大模型。初步测试显示85%的提示可用小型模型处理,支持OpenAI、Anthropic等多个模型提供商,仅增加2毫秒延迟。
数据基础设施巨头Vast Data宣布扩大与云数据中心运营商CoreWeave的合作,签署11.7亿美元商业协议,强化VAST AI OS作为云端人工智能工作负载的主要数据基础。CoreWeave运营配备英伟达先进GPU的云数据中心网络,为企业客户提供AI算力服务。Vast AI OS采用"分解共享"架构,支持多种存储类型,提供低延迟数据访问。双方将为客户提供更先进的数据服务,优化数据管道,实现更快速高效的AI工作负载扩展。
谷歌宣布为云客户推出定制Ironwood芯片,这款张量处理单元可在单个pod中扩展至9216个芯片,成为该公司迄今最强大的AI加速器架构。新芯片将在未来几周内向客户提供,同时推出基于Arm的新Axion实例,承诺提供比当前x86替代方案高达两倍的性价比。该公司还扩展了Axion产品线,推出N4A第二代虚拟机和C4A金属实例预览版本。
谷歌最新一代Ironwood TPU v7加速器即将上市,在性能上已接近英伟达Blackwell GPU水平。每颗TPU提供4.6 petaFLOPS的FP8性能,配备192GB HBM3e内存。谷歌真正优势在于规模化能力,TPU pod最多可容纳9216颗芯片,理论上可扩展至40万颗加速器。采用3D环面拓扑和光学电路交换技术,在大规模计算集群方面具有独特优势。
Laude研究所周四宣布首批Slingshots资助计划,旨在推进人工智能科学与实践发展。该加速器项目为研究人员提供学术环境中难以获得的资源支持,包括资金、算力和产品工程支持。首批15个项目重点关注AI评估难题,包括命令行编程基准Terminal Bench和ARC-AGI项目最新版本。其他项目涵盖代码优化评估、白领AI代理基准测试等创新方向。
近期有观点认为,大规模使用生成式AI和大语言模型会增强人类左脑的逻辑分析能力,同时削弱右脑的创造力,导致人类社会逐渐成为左脑主导的群体。但研究表明,左右脑功能分工理论缺乏科学依据,大脑两半球在创造性和逻辑性任务中都会协同工作。此外,AI不仅能辅助逻辑思维,同样可用于诗歌创作、图像生成等创意任务。
微软全球AI巡展在迪拜举行,宣布启动Microsoft Elevate UAE项目,计划为超过25万名学生和教育工作者以及5.5万名联邦政府员工提供AI技能培训。该项目是微软152亿美元投资计划的一部分,旨在加强AI基础设施建设,培养本地人才能力。微软还将与G42和JAHIZ平台合作,为联邦公务员提供技术培训,支持阿联酋成为AI领域的区域和全球领导者。
思科发布计划升级校园、分支和工业网络以适应AI时代需求。新架构基于2025年推出的AI就绪安全网络架构,可在几分钟内实现自动化部署和安全防护,满足分布式AI工作负载的高带宽、超低延迟需求。思科向AgenticOps转型,通过AI代理与人工团队协作解决复杂问题。新功能包括统一网络可视化、校园管理简化、代理工作流自动化等,旨在简化运营、增强安全性并释放企业AI潜力。
Agentar全栈企业级智能体基座入选“互联网之光”博览会十大首发成果,能源时序大模型EnergyTS获“新光”产品奖,展现了蚂蚁数科推动的AI大模型与产业深度融合方面的领先成果。
这项由圣母大学和IBM研究院联合开展的研究,开发出了名为DeepEvolve的AI科学助手系统,能够像人类科学家一样进行深度文献研究并将创新想法转化为可执行的算法程序。该系统突破了传统AI要么只能改进算法但缺乏创新、要么只能提出想法但无法实现的局限,在化学、生物学、数学等九个科学领域的测试中都实现了显著的算法性能提升,为AI辅助科学发现开辟了新的道路。
卡内基梅隆大学研究团队通过3331次大规模实验,系统揭示了代码训练如何提升AI推理能力。研究发现,代码的结构特性比语义内容更重要,适当的抽象形式(如伪代码)可以达到与原始代码相同的效果。不同编程语言产生差异化影响:低抽象语言有利于数学推理,Python更适合自然语言任务。这些发现为AI训练数据的科学化设计提供了重要指导。
三星AI实验室提出的小型递归模型(TRM)仅用700万参数就在数独、迷宫和ARC-AGI等复杂推理任务上超越了千亿参数的大型语言模型。TRM通过递归改进答案的简洁机制,避免了复杂数学理论的依赖,用单一的2层网络替代了多网络架构。这项研究证明了在某些任务上,精巧的算法设计比参数堆叠更有效,为AI技术的民主化和普及提供了新思路。
格拉斯哥大学研究团队开发出"临床对比解码"技术,有效解决AI医疗系统的"幻觉"问题。该技术无需重新训练模型,通过双阶段实时校正机制,在MIMIC-CXR数据集上将AI诊断准确性提升17%。技术采用专家AI指导的方式,既防止漏诊又避免误诊,为AI医疗应用提供了实用的质量保障方案。
Meta公司FAIR实验室开发的OneFlow模型实现了AI领域的重大突破,首次让人工智能能够同时生成文字和图像,打破了传统"先文字后图像"的限制。该技术结合Edit Flow和Flow Matching方法,在保持高质量输出的同时大幅提升计算效率,为多模态AI创作开辟了全新道路,有望在教育、媒体、设计等领域带来革命性应用。
MIT和哈佛研究团队提出"平衡匹配"新方法,彻底改变AI图像生成理念。该方法摒弃传统时间依赖机制,创建能量景观让图像自然生成,在ImageNet测试中达到1.90最佳FID分数,节省60%计算资源,具备部分噪声处理、异常检测和图像合成等独特能力,为生成建模领域开辟新范式。
这项研究发现AI模型量化压缩效果的关键影响因素不是训练数据规模,而是学习率调度策略。当训练中学习率衰减时,量化误差会急剧上升。通过优化学习率调度和采用权重平均技术,可显著改善量化性能,为AI模型高效部署提供新思路。
谷歌地图将集成Gemini人工智能技术,旨在将其升级为一个"全知型副驾驶"助手。这一整合将大幅提升地图服务的智能化水平,为用户提供更加个性化和全面的导航体验。通过AI技术的加持,谷歌地图有望在路线规划、地点推荐和实时信息服务等方面实现重大突破。
微软研究人员发布新的仿真环境来测试AI智能体,研究显示当前智能体模型容易受到操纵。该名为"Magentic Marketplace"的合成平台让客户智能体与商家智能体进行交互实验。测试包括GPT-4o、GPT-5和Gemini-2.5-Flash等模型,发现智能体在面临过多选择时效率下降,且在协作方面表现不佳。研究揭示了AI智能体在无监督环境下的性能问题。
AI搜索提供商Perplexity开发了新的软件优化技术,让万亿参数大模型能在老旧、便宜的硬件上高效运行,包括使用亚马逊专有的弹性网络适配器。这项创新解决了大规模专家混合模型面临的内存和网络延迟挑战。研究显示,相比单节点配置,优化后的核心程序在多节点部署中实现了显著性能提升,使企业能更长时间利用现有硬件,或使用折扣云实例运行下一代前沿模型。