ByteDance研究团队推出的M3-Agent是首个具备长期记忆能力的多模态AI代理。它能同时处理视频、音频信息,像人类一样积累经验和知识。系统采用情节记忆和语义记忆双重机制,以实体为中心组织信息,并通过多轮推理解决复杂问题。在专门构建的M3-Bench测试中,M3-Agent全面超越现有技术,为智能助手的发展开辟了新方向。
微软研究院开发的VisCodex实现了多模态AI的重要突破,通过创新的模型融合技术让AI同时具备视觉理解和编程能力。该系统采用任务向量融合方法,将视觉语言模型与编程模型巧妙结合,并构建了包含59.8万样本的多模态编程数据集。测试显示其性能已接近GPT-4o水平,为未来的智能编程辅助和低代码开发提供了新的可能性。
清华大学研究团队开发了AMFT自适应元微调方法,通过智能元学习控制器动态平衡模仿学习与强化学习,解决传统AI训练中的灾难性遗忘问题。该方法在数学推理、视觉推理等多项任务中创造最佳成绩,不仅提高了性能还增强了泛化能力,为开发更可靠的AI推理系统提供了新思路。
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
香港理工大学联合多所高校开发的Mol-R1框架,首次实现了AI在分子发现中的透明推理。该系统通过PRID方法学习专家推理模式,配合MoIA迭代训练策略,不仅能准确生成分子结构,还能展示完整思考过程。相比现有模型,Mol-R1推理更简洁高效,为药物研发等领域的AI应用提供了重要的安全保障。
蚂蚁集团AWorld团队发表突破性研究,创建动态多智能体协作系统解决AI稳定性难题。研究灵感来源于船舶导航,通过执行智能体和守护智能体的协作机制,在GAIA测试中准确率达67.89%,稳定性提升17.3%,荣登开源项目排行榜第一名。该系统为构建可靠智能系统开辟新路径,具有广阔应用前景。
上海交大和复旦大学研究团队发现了AI视觉系统的重大安全漏洞——IAG攻击。这种攻击能让AI助手在视觉定位时被恶意操控,无论用户询问什么,都会指向攻击者预设的错误目标,且几乎无法被察觉。实验显示攻击成功率超65%,现有防御技术完全失效,对机器人、自动驾驶等应用构成严重威胁。
浙江大学团队开发的Cooper框架实现了AI训练中的"教学相长",通过同步优化策略模型和奖励模型,成功解决了传统训练中的奖励黑客攻击问题。该框架让AI老师和学生同步成长,在数学推理任务上实现了显著性能提升,为构建更稳定可靠的AI系统开辟了新路径。
上海交通大学邓志杰教授团队开发出革命性的D2F技术,成功让AI文本生成速度比传统模型快2.5倍。该技术通过巧妙的分块并行处理和预测机制,在大幅提升速度的同时保持文本质量不变,打破了AI领域长期存在的"速度与质量不可兼得"难题,为未来AI应用带来重大突破。
德国慕尼黑工业大学联合谷歌等机构推出HyperNoise技术,通过训练专门的"噪声超网络"为AI图像生成模型提供最优起始条件,在几乎不增加推理时间的情况下显著提升生成质量。该技术将复杂的优化过程从推理时转移到训练时,实现了速度与质量的完美平衡,为快速高质量AI图像生成提供了突破性解决方案。
Perplexity多次尝试收购浏览器公司,包括340亿美元收购Chrome的传言。Opera认为浏览器将成为智能代理互联网的核心平台。Opera推出Neon项目,集成聊天、执行和创建功能的AI代理。在代理驱动的互联网中,用户只需下达指令,代理自动完成搜索、比较、购买等复杂任务。浏览器作为工作平台,能为AI代理提供丰富的上下文信息,使其更加智能有效。
Meta研究员Jack Morris成功将OpenAI的gpt-oss-20B模型逆向工程为基础版本,去除了推理行为和安全对齐限制。通过在三个层面应用LoRA技术,仅训练0.3%的参数,就恢复了模型的原始文本生成能力。新模型响应更快、更自由,但也带来安全风险。这项工作展示了开源模型发布后如何被快速改造,为研究偏见、记忆化等问题提供了新工具。
英伟达发布名为Granary的大规模开源多语言音频数据集,包含超过100万小时音频、65万小时语音识别和35万小时语音翻译数据,涵盖25种欧洲语言。同时推出Canary-1b-v2和Parakeet-tdt-0.6b-v6两个AI模型,用于语音翻译和转录任务。该数据集在GitHub免费开放,可帮助开发者为小众语言创建更包容的语音技术。
硅谷对类人通用人工智能的争论忽略了一个关键点:真正的超级智能不会出现在手机中,而是在企业系统中。企业通用智能(EGI)是先进AI的理想试验场,因为企业环境具有结构化复杂性和人为设计的参数。EGI需要五个核心能力:自主目标分解规划、跨平台系统状态感知、多系统行动选择验证、AI就绪的企业生态系统以及组合推理能力。未来人类将与EGI协作,承担创意、判断、审计和风险缓解角色。
最新研究显示,开源AI模型在执行相同任务时消耗的计算资源比闭源竞品高1.5至4倍,简单知识问答甚至高达10倍。尽管开源模型单token成本更低,但总计算需求的增加可能抵消其价格优势。研究发现OpenAI模型在token效率方面表现突出,而大型推理模型在处理简单问题时会消耗数百个token进行不必要的思考。这一发现挑战了开源模型更经济的传统认知,企业在评估AI部署策略时需重新考虑总体计算成本。
韩国电信巨头SK电信正在构建名为Haein Cluster的主权人工智能基础设施,采用英伟达Blackwell服务器和Vast Data的AI操作系统。该基础设施支持SKT的Petasus AI云服务,确保所有数据和处理都在韩国境内完成。通过部署虚拟化AI基础设施,SKT将GPU环境启动时间从数天缩短至10分钟,同时保持与裸机系统相当的性能水平。
研究人员警告称,基于大型语言模型的AI聊天机器人可被恶意改造,自动收集用户个人信息,攻击者仅需最基本技术知识即可实现。研究显示,经过恶意改造的聊天机器人能获取超过90%参与者的个人数据,远高于普通表单的24%。攻击者只需通过"系统提示"工具,为机器人分配"调查员"等角色即可绕过安全防护。研究涵盖502名参与者,使用三种主流语言模型进行测试。
谷歌DeepMind发布了迄今最小的AI模型之一Gemma 3 270M,仅有2.7亿个参数。该模型专为低功耗设备设计,可在智能手机等设备上离线运行。尽管体积小巧,但经过微调后仍能处理复杂的特定领域任务。在指令跟随基准测试中获得51.2%的成绩,超越同类小型模型。在Pixel 9 Pro上测试显示,25次对话仅消耗0.75%电量,展现出色的能效表现。
普渡大学研究团队开发了ASTRA红队系统,通过"空间时间探索"方法系统测试AI编程助手安全性。与传统方法不同,ASTRA专注现实使用场景,通过构建领域知识图谱和分析AI推理过程发现漏洞。实验显示ASTRA比现有技术多发现11-66%安全问题,生成的测试用例可提升AI安全训练效果17%,为AI编程助手安全保障提供了重要工具。