MiroMind AI发布MATPO多智能体训练技术,通过让单个AI模型同时扮演策划者和执行者角色实现协作。该方法在三个测试基准中平均性能提升18.38%,有效解决了传统单智能体系统记忆容量限制和信息干扰问题,为AI协作开辟新路径。
Google DeepMind发布"Vibe Checker"智能代码评估系统,首次系统性地解决了AI编程中"功能正确但感觉不对"的问题。通过对31个主流AI模型的测试发现,人类程序员的代码偏好需要功能正确性与代码规范的巧妙平衡,该研究为AI编程助手的优化指明了新方向。
微软和台湾大学联合开发的SHANKS框架首次让AI语音模型实现"边听边想"能力。该系统将用户语音切分成4秒片段,在倾听过程中同步生成无声思考内容。在数学教学场景中,SHANKS能发现84.8%的学生错误并及时打断纠正。在旅行助手应用中,可在用户说话期间完成56.9%的API调用工作,显著提升响应效率。这项技术为实现更自然的人机语音交互开辟了新方向。
字节跳动研发的人工海马体网络技术,通过模仿大脑记忆机制解决了AI处理长文本时的效率难题。该技术将近期信息保存在滑动窗口中保持完整性,同时用人工海马体将历史信息智能压缩,实现了运算量减少40.5%、内存使用减少74%的同时性能反而提升33%的突破。
芝加哥大学研究团队提出探索性退火解码方法,通过动态调节AI生成过程中的温度参数,实现"早期探索、后期利用"的策略。该方法在数学推理任务上显著提升了AI性能,Pass@16准确率提升2-5个百分点。研究发现AI生成过程具有阶段性特征,不同位置对结果影响不同,为语言生成研究提供新视角。
伊利诺伊大学香槟分校团队提出GRACE框架,让AI在理解文本相似性时能解释思考过程。该方法将传统"黑盒"AI转变为"透明AI",通过强化学习训练模型生成推理文本,在MTEB基准上平均提升11.5%性能的同时保持原有通用能力。这一突破为可解释AI发展开辟新方向。
人工智能初创公司aiOla推出基于流匹配训练技术的语音AI模型Drax,挑战OpenAI和阿里巴巴等巨头。该模型重新定义语音算法训练方式,能在嘈杂环境中准确识别语音,兼顾速度与准确性。相比OpenAI的Whisper和阿里巴巴Qwen2,Drax采用并行流处理技术,速度提升32倍,词错误率仅7.4%。该模型已在GitHub开源,提供三种规模版本。
Lemony.ai发布开源工具Cascadeflow,通过动态路由提示到最具成本效益的语言模型来削减AI应用开发成本。该软件采用级联管道,先使用小型廉价模型处理提示,根据质量指标评估结果,不达标则升级到更大模型。初步测试显示85%的提示可用小型模型处理,支持OpenAI、Anthropic等多个模型提供商,仅增加2毫秒延迟。
数据基础设施巨头Vast Data宣布扩大与云数据中心运营商CoreWeave的合作,签署11.7亿美元商业协议,强化VAST AI OS作为云端人工智能工作负载的主要数据基础。CoreWeave运营配备英伟达先进GPU的云数据中心网络,为企业客户提供AI算力服务。Vast AI OS采用"分解共享"架构,支持多种存储类型,提供低延迟数据访问。双方将为客户提供更先进的数据服务,优化数据管道,实现更快速高效的AI工作负载扩展。
谷歌宣布为云客户推出定制Ironwood芯片,这款张量处理单元可在单个pod中扩展至9216个芯片,成为该公司迄今最强大的AI加速器架构。新芯片将在未来几周内向客户提供,同时推出基于Arm的新Axion实例,承诺提供比当前x86替代方案高达两倍的性价比。该公司还扩展了Axion产品线,推出N4A第二代虚拟机和C4A金属实例预览版本。
谷歌最新一代Ironwood TPU v7加速器即将上市,在性能上已接近英伟达Blackwell GPU水平。每颗TPU提供4.6 petaFLOPS的FP8性能,配备192GB HBM3e内存。谷歌真正优势在于规模化能力,TPU pod最多可容纳9216颗芯片,理论上可扩展至40万颗加速器。采用3D环面拓扑和光学电路交换技术,在大规模计算集群方面具有独特优势。
Laude研究所周四宣布首批Slingshots资助计划,旨在推进人工智能科学与实践发展。该加速器项目为研究人员提供学术环境中难以获得的资源支持,包括资金、算力和产品工程支持。首批15个项目重点关注AI评估难题,包括命令行编程基准Terminal Bench和ARC-AGI项目最新版本。其他项目涵盖代码优化评估、白领AI代理基准测试等创新方向。
近期有观点认为,大规模使用生成式AI和大语言模型会增强人类左脑的逻辑分析能力,同时削弱右脑的创造力,导致人类社会逐渐成为左脑主导的群体。但研究表明,左右脑功能分工理论缺乏科学依据,大脑两半球在创造性和逻辑性任务中都会协同工作。此外,AI不仅能辅助逻辑思维,同样可用于诗歌创作、图像生成等创意任务。
微软全球AI巡展在迪拜举行,宣布启动Microsoft Elevate UAE项目,计划为超过25万名学生和教育工作者以及5.5万名联邦政府员工提供AI技能培训。该项目是微软152亿美元投资计划的一部分,旨在加强AI基础设施建设,培养本地人才能力。微软还将与G42和JAHIZ平台合作,为联邦公务员提供技术培训,支持阿联酋成为AI领域的区域和全球领导者。
思科发布计划升级校园、分支和工业网络以适应AI时代需求。新架构基于2025年推出的AI就绪安全网络架构,可在几分钟内实现自动化部署和安全防护,满足分布式AI工作负载的高带宽、超低延迟需求。思科向AgenticOps转型,通过AI代理与人工团队协作解决复杂问题。新功能包括统一网络可视化、校园管理简化、代理工作流自动化等,旨在简化运营、增强安全性并释放企业AI潜力。
Agentar全栈企业级智能体基座入选“互联网之光”博览会十大首发成果,能源时序大模型EnergyTS获“新光”产品奖,展现了蚂蚁数科推动的AI大模型与产业深度融合方面的领先成果。
这项由圣母大学和IBM研究院联合开展的研究,开发出了名为DeepEvolve的AI科学助手系统,能够像人类科学家一样进行深度文献研究并将创新想法转化为可执行的算法程序。该系统突破了传统AI要么只能改进算法但缺乏创新、要么只能提出想法但无法实现的局限,在化学、生物学、数学等九个科学领域的测试中都实现了显著的算法性能提升,为AI辅助科学发现开辟了新的道路。
卡内基梅隆大学研究团队通过3331次大规模实验,系统揭示了代码训练如何提升AI推理能力。研究发现,代码的结构特性比语义内容更重要,适当的抽象形式(如伪代码)可以达到与原始代码相同的效果。不同编程语言产生差异化影响:低抽象语言有利于数学推理,Python更适合自然语言任务。这些发现为AI训练数据的科学化设计提供了重要指导。
三星AI实验室提出的小型递归模型(TRM)仅用700万参数就在数独、迷宫和ARC-AGI等复杂推理任务上超越了千亿参数的大型语言模型。TRM通过递归改进答案的简洁机制,避免了复杂数学理论的依赖,用单一的2层网络替代了多网络架构。这项研究证明了在某些任务上,精巧的算法设计比参数堆叠更有效,为AI技术的民主化和普及提供了新思路。
格拉斯哥大学研究团队开发出"临床对比解码"技术,有效解决AI医疗系统的"幻觉"问题。该技术无需重新训练模型,通过双阶段实时校正机制,在MIMIC-CXR数据集上将AI诊断准确性提升17%。技术采用专家AI指导的方式,既防止漏诊又避免误诊,为AI医疗应用提供了实用的质量保障方案。