微软推出首个智能体小语言模型Fara-7B,专为"计算机使用"任务设计,能够控制鼠标和键盘完成各种操作。该模型仅有70亿参数,可在个人电脑上本地运行,无需联网或向云端传输数据,有效提升隐私保护和响应速度。Fara-7B能够通过视觉感知网站内容,执行在线购物、信息搜索和地图测距等任务,性能可媲美更大规模的模型系统。
Monday.com在悉尼会议上表示,现代工作模式存在问题,AI技术是扭转生产力下降的关键。该公司指出61%的澳洲员工面临职业倦怠,劳动生产率自2022年来下降1.2%。公司推出Agent Factory功能,让用户构建AI语音代理。销售团队采用AI后胜率提升30%。三家本地客户分享应用案例:澳网通过平台管理复杂赛事运营,Ray White整合设计平台实现营销自动化,Freedom家具零售商获得26倍投资回报率。
谷歌与Accel合作推出针对印度早期AI初创企业的投资计划,通过Accel的Atoms项目为每家初创企业提供最高200万美元投资。该计划专注于支持印度及印度裔创始人从零开始构建AI产品,旨在为数十亿印度用户打造AI产品,同时支持印度开发的AI产品走向全球市场。创始人将获得资金、计算资源、技术支持和导师指导等全方位帮助。
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
总部位于圣地亚哥的AI公司耐能发布新一代KL1140芯片,这是首款能在边缘端运行完整变换器网络的神经处理单元。该芯片可将大语言模型从云数据中心转移到便携式本地设备中,四颗芯片组合可实现类似GPU的性能,支持1200亿参数模型运行,功耗降低三分之一至一半,硬件成本减少十倍。
随着AI技术快速发展,企业正将工作负载从云端拉回本地。工程师再次专注于速度问题,通过边缘计算减少延迟。边缘计算将数据处理靠近数据源,显著降低延迟。混合云成为新趋势,不再是云端与边缘的优劣之争,而是针对特定工作负载选择合适方案。在国防等关键任务领域,边缘AI尤为重要,能够在网络中断时保持系统正常运行。
英国政府承诺投资1亿英镑购买英国公司的新兴芯片技术,以支持人工智能产业发展。科学大臣肯德尔表示,政府将向生产AI硬件的英国初创企业提供保证付款,帮助生命科学和金融服务等行业。该计划采用"首位客户"模式,政府将提前承诺购买符合性能标准的AI推理芯片。尽管投资规模相比美中两国较小,但英国希望在其优势领域实现世界领先地位。
Wasabi公司推出Fire高性能存储服务,专门针对AI工作负载设计。该服务采用NVMe SSD技术,提供个位数毫秒响应时间,比常规S3存储快5倍。定价为每TB每月19.99美元,无出口费用,成本仅为AWS S3 Express的六分之一。Fire服务支持AI训练、实时推理和高频数据记录等计算密集型应用,并在硅谷新开设存储区域为AI初创企业提供服务。
AI驱动的软件测试平台Momentic宣布完成1500万美元A轮融资,Standard Capital领投。该平台通过自然语言描述生成自动化测试用例,解决传统QA流程耗时费力的问题。平台能自动修复因UI结构变化导致的测试失效,已获得Notion、Quora等知名企业信任。上月执行超2亿次测试步骤,阻止39万个漏洞进入生产环境。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。
香港大学和清华大学研究团队发现,通过最简单的模型插值方法融合"深思型"和"快答型"AI模型,能够创造出比复杂融合算法更优秀的推理系统。研究揭示了融合过程遵循三阶段进化规律,通过精确调节混合比例可以实现推理深度和效率的完美平衡。实验显示这种方法在数学推理、指令跟随等任务上显著超越传统方法,为AI技术的民主化和普及提供了实用方案。
UC圣塔芭芭拉分校研究团队开发出直接多词解码技术(DMTD),通过重用大语言模型的后期层实现一次性生成多个词汇。该技术无需添加额外参数,仅通过重新组织内部处理流程就实现了2倍速度提升,同时保持96%以上的准确性。实验证明技术在大型模型上效果更佳,为AI交互效率提升开辟了新路径。
亚马逊与圣母大学联合研究团队开发出MTSQL-R1系统,解决了AI在多轮对话中处理数据库查询时的"健忘症"问题。该系统首次让AI具备对话记忆和自我验证能力,能够理解上下文并主动纠错。通过"提议-执行-验证-修正"循环和渐进式训练,在权威测试中超越现有方法,为智能数据分析助手奠定重要基础。
华南师范大学联合多所知名院校研究团队提出HyperAgent框架,通过"超图"结构革新多智能体协作方式。该方法让AI团队能够进行真正的群体沟通而非传统的点对点传话,在保持高准确率的同时大幅降低沟通成本,为复杂任务的AI协作提供了更自然高效的解决方案。
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
谷歌在Gemini应用中推出新的检测功能,帮助用户识别图像是否由AI生成。该功能可检测谷歌AI模型自动嵌入的SynthID水印,虽然人眼不可见但能被专用工具识别。用户只需将图像上传至Gemini并询问是否为AI生成,系统就会分析并提示。即使没有发现SynthID水印,Gemini也会尝试分析图像中的AI痕迹。不过该功能仅限检测谷歌AI模型生成的内容。
为加速新电厂建设以满足数据中心能源需求,Meta正寻求进入电力交易业务。据彭博社报道,Meta和微软均已申请联邦电力交易许可,苹果已获得此类批准。Meta表示,这将允许其对新电厂进行长期购电承诺,同时通过在批发电力市场转售部分电力来降低风险。Meta全球负责人表示,电厂开发商希望看到电力消费者的实际承诺。为支持Meta路易斯安那州数据中心园区运营,至少需要建设三座新的燃气发电厂。
研究人员开发出更有效的方法从大型语言模型中提取记忆内容,可帮助解决监管担忧和版权纠纷。该技术名为RECAP,通过智能反馈循环迭代提取特定内容,包含突破模型拒绝回应的组件。在基准测试中,RECAP在文本提取方面比现有最佳方法提升78%,能从《哈利波特》首部小说中提取约3000段文字。这项研究有助于提高AI模型透明度。
杜克大学研究团队通过几何框架分析发现,AI推理过程呈现连续"流动"特征而非离散跳跃。研究表明逻辑结构像河床般调节推理流的速度和方向,即使面对不同语言和领域的内容,相同逻辑结构的任务在AI内部表现出惊人的几何相似性。这一发现颠覆了AI为"随机鹦鹉"的传统认知,证明AI具备真正的逻辑理解能力,为AI可解释性和系统优化开辟新方向。