AI云服务初创公司Together AI宣布其Instant Clusters服务正式上线,该服务可自动配置GPU集群。用户通过单一API即可访问从8个GPU的单节点到数百个处理器的大型多节点系统。服务支持英伟达最新Hopper和Blackwell GPU,针对分布式训练和弹性推理进行优化。集群预装驱动程序、调度器和网络组件,支持按小时、按日和多月承诺的灵活定价模式。
大数据可观测性初创公司Monte Carlo Data推出全新Agent Observability产品,为AI应用提供全方位数据和AI可观测性。该工具帮助团队检测、分类和修复生产环境中AI应用的可靠性问题,防止代价高昂的"幻觉"现象,避免客户信任度下降和系统宕机。新产品采用大语言模型作为评判器的技术,能够同时监控AI数据输入和输出,提供统一的AI可观测性解决方案。
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
医疗信息管理平台Predoc宣布获得3000万美元新融资,用于扩大运营规模并在肿瘤科、研究网络和虚拟医疗提供商中推广应用。该公司成立于2022年,利用人工智能技术提供端到端平台服务,自动化病历检索并整合为可操作的临床洞察。平台可实现病历检索速度提升75%,临床审查时间减少70%,旨在增强而非替代临床判断。
谷歌终于公开了其AI助手Gemini的详细使用限制和配额规则。此前用户对于Gemini的使用次数、频率限制等一直不够明确,经常遇到突然无法使用的情况。此次谷歌明确了不同订阅级别用户的具体使用配额,包括免费用户和付费用户的区别待遇,以及针对不同功能模块的限制标准,为用户提供了更透明的使用指导。
OpenAI正式进军影视娱乐行业,推出名为Critterz的AI驱动动画电影项目。该项目展示了人工智能在内容创作领域的最新突破,标志着AI技术从传统的文本和图像生成扩展到完整的影视制作流程。这一举措将对传统好莱坞制片模式产生重大影响,同时为AI在创意产业的应用开辟新的可能性。
微软与人工智能基础设施提供商Nebius签署了一项价值高达近200亿美元的合作协议,后者将从其位于新泽西州的新数据中心提供专用GPU基础设施容量。该协议五年期价值174亿美元,如微软增加计算需求,预购选择条款可将潜在价值扩展至194亿美元。Nebius将利用协议现金流为数据中心建设融资并采购必要芯片。
谷歌DeepMind团队开发的GraphCast是一个革命性的AI天气预测模型,能够在不到一分钟内完成10天全球天气预报,准确性超越传统方法90%的指标。该模型采用图神经网络技术,通过学习40年历史数据掌握天气变化规律,在极端天气预测方面表现卓越,能耗仅为传统方法的千分之一,为气象学领域带来了效率和精度的双重突破。
ByteDance等机构联合发布的MM-BrowseComp是首个专门评估AI多模态网页浏览能力的测试基准。该研究包含224道需要综合处理文字、图像、视频信息的题目,测试结果显示即使是最先进的OpenAI o3模型也只达到29%的准确率,揭示了当前AI在多模态信息理解方面的技术短板,为未来AI发展指明了重要方向。
华东师范大学等机构联合开发FineCE方法,首次实现AI系统在文本生成过程中的细粒度实时信心评估。该方法通过蒙特卡罗采样构建训练数据,结合后向信心整合策略,让AI能够准确判断自己答案的可靠性。实验显示在多个基准数据集上显著优于现有方法,为AI安全性和可解释性研究开辟新方向。
复旦大学团队提出PASR技术,首次让AI具备在生成过程中主动反思和修正的能力,改变了传统AI只能事后修改的局限。该方法在10个任务上显著提升了准确率,同时降低了41.6%的计算消耗,代表了AI从被动执行向主动思考的重要转变。
ByteDance Seed等机构联合开发的FutureX是首个专门测试AI未来预测能力的实时平台,每日从195个网站收集真实事件让25个AI模型预测,完全避免数据污染。测试发现Grok-4等先进模型在复杂预测中表现优秀,但与人类专家相比仍有差距,为AI预测能力发展提供了重要基准。
上海人工智能实验室等机构联合开发的MeshCoder系统能将3D物体点云自动转换为可编辑的Blender Python代码。该系统采用分层训练策略,先训练部件识别模型,再训练整体推理模型,在重建精度上显著优于现有方法。生成的代码支持灵活的几何和拓扑编辑,并能增强大语言模型对3D形状的理解能力,为游戏开发、建筑设计等领域带来新的可能性。
香港城市大学等机构联合开展的首个扩散大语言模型量化研究发现,这类新型AI模型存在特殊的激活异常值分布模式,为量化压缩带来新挑战。研究系统评估了多种量化方法,发现4位权重量化和8位权重激活同时量化是目前最实用的选择,GPTQ和DuQuant分别在两种策略中表现最佳,为扩散语言模型的实用化部署提供了技术指导。
NVIDIA发布Nemotron Nano 2混合AI模型,采用创新的Mamba-Transformer架构,在保持90亿参数规模的同时,实现了比同类模型3-6倍的推理速度提升。该模型在数学、科学、编程等复杂推理任务上表现出色,支持15种语言,能在单GPU上处理12.8万字符长文本,为高效AI应用开辟了新路径。
ByteDance Seed和南京大学研究团队提出DuPO双向学习训练法,让AI模型通过"出题-验证"的方式自我提升,无需人工标注。该方法在多语言翻译和数学推理上效果显著,让7B模型达到GPT-4o水平,数学推理提升6.4个百分点。这一突破为AI自主学习开辟新路径,大幅降低训练成本。
俄勒冈大学和Adobe研究团队开发了mSCoRe基准系统,专门测评AI在多语言环境下的常识推理能力。该系统首次将推理过程细分为十种基本技能,涵盖逻辑、情境和社会伦理三大类别,并创新性地引入动态复杂度扩展机制。通过对八个顶级大语言模型的全面测试,研究发现现有AI系统过度依赖单一推理模式,在文化敏感的社会常识判断上仍有显著不足。
Gartner预测,到2030年所有IT工作都将涉及AI技术的使用,这与目前81%的IT工作不使用AI形成鲜明对比。届时25%的IT工作将完全由机器人执行,75%由人类在AI辅助下完成。尽管AI将取代部分入门级IT职位,但Gartner认为不会出现大规模失业潮,目前仅1%的失业由AI造成。研究显示65%的公司在AI投资上亏损,而世界经济论坛预计AI到2030年创造的就业机会将比消除的多7800万个。
人工智能正从软件故事转向AI工厂基础,芯片、数据管道和网络协同工作形成数字化生产系统。这种新兴模式重新定义了性能衡量标准和跨行业价值创造方式。AI工厂将定制半导体、低延迟结构和大规模数据仪器整合为实时反馈循环,产生竞争优势。博通、英伟达和IBM正在引领这一转变,通过长期定制芯片合同和企业遥测技术,将传统体验转化为活跃的数字生态系统。