科技泡沫并非世界末日,从经济角度看,泡沫是押注过大导致供过于求。AI泡沫问题复杂在于AI软件开发节奏与数据中心建设周期的时间错配。甲骨文关联数据中心获180亿美元信贷,Meta承诺三年内投入6000亿美元基础设施。麦肯锡调查显示企业虽广泛使用AI但规模有限,多数仍持观望态度。微软CEO表示更担心数据中心空间不足而非芯片短缺,电力需求成为新瓶颈。
Goodfire.ai研究人员首次发现AI语言模型中记忆和推理功能通过完全独立的神经通路运作。研究显示,移除记忆通路后,模型丧失97%的训练数据复述能力,但逻辑推理能力几乎完全保留。令人意外的是,算术运算与记忆共享神经通路而非推理通路,这可能解释了AI模型在数学方面的困难。该技术未来有望用于移除版权内容或敏感信息而不损害模型核心功能。
人工智能将效率推崇为最高价值,引发"黑暗启蒙"时代。AI系统开始从自身预测中学习,产生"现实漂移"现象,内在一致性超越外在准确性。企业追求AI驱动的效率提升,但往往只是优化了叙述而非智能。丹麦等国开始立法保护公民肖像权,对抗AI深伪技术。领导者需要重新引入智能摩擦,审视效率与学习的平衡,保护真实性基础设施。
初创公司First Concepts推出AI原生创意工作空间,通过浏览器扩展整合现有工具栈,帮助创意团队从需求到成品概念的速度提升70%。该系统统一团队简报、研究和灵感来源,利用AI编排工具同时保持人类创意主导权,实现"高速品味交付"。公司在AWS创业大赛中获胜,致力于为创意行业构建下一代基础设施。
纽约AI视频平台公司Kaltura宣布以约2700万美元收购以色列初创公司eSelf.ai。eSelf专注于开发能与用户对话的逼真数字虚拟人,支持30多种语言。该公司由Snap AI创始人Alan Bekker于2023年联合创立,拥有语音转视频生成和低延迟语音识别等核心技术。Kaltura计划将eSelf的虚拟代理技术整合到其视频产品中,为销售、营销、客服和培训等场景提供可嵌入的智能代理服务。这是Kaltura的第四次收购。
腾讯研究团队发现AI训练中"推理火花"现象,揭示低概率词汇如"等等"、"不过"等在维持AI探索能力中的关键作用。团队开发的低概率正则化方法通过精准保护有价值的低概率词汇,在数学推理任务中实现60.17%准确率,比传统方法提升2.66%,为AI创造性思维研究开辟新路径。
字节跳动团队发布的InstructX是首个统一处理图像和视频编辑的AI系统,能够理解自然语言指令并精确执行编辑任务。该系统创新性地发现仅通过图像训练就能自动获得视频编辑能力,有效解决了视频编辑数据稀缺问题。在多个评估基准上,InstructX超越了现有开源方法,在某些指标上可与商业解决方案媲美,为内容创作行业带来了新的可能性。
谷歌发布新的私有AI计算云服务,旨在提供更强大的AI体验同时保护用户隐私。该服务基于谷歌定制TPU芯片和AMD可信执行环境,通过加密连接和内存隔离确保数据安全。谷歌称其安全性与本地处理相当,但云端算力更强,可运行更大规模的Gemini模型。该服务将为Magic Cue等AI功能提供支持,采用边缘与云端混合处理模式。
IBM研究显示,半数全球高管承认AI投资步伐过快导致技术碎片化。企业在部署生成式AI时缺乏统一规划,造成系统无法协同工作。过去三年仅25%的AI项目达到预期投资回报率,只有16%实现企业级扩展。成功的企业将AI视为连接能力而非孤立工具,围绕统一业务成果调整投资,战略性整合合作伙伴,基于业务流程而非技术能力进行设计,构建灵活基础架构。
Pure Storage发布Data Stream,这是一个以GPU为中心的AI数据管道集成硬件软件堆栈。该解决方案运行在FlashBlade//S和英伟达Blackwell GPU硬件上,可自动化加速企业AI管道的数据摄取、转换和优化。Data Stream具备自动化实时数据摄取、英伟达NeMo集成、GPU优化管道加速等功能,支持多协议访问,可处理数十亿文件,通过在存储层执行并行转换大幅降低推理延迟,为企业AI应用提供即时访问优化数据的能力。
人工智能正在深刻影响各行各业,但许多企业在AI转型过程中遭遇延迟、成本飙升等问题。根本原因在于传统企业网络无法支撑AI工作负载的需求。AI需要处理大量非结构化数据,依赖高性能计算集群和低延迟高吞吐量连接,常跨越混合云和多云架构。传统网络针对分支到数据中心流量优化,无法满足大规模GPU训练或多云推理扩展需求。企业必须优先解决网络问题,构建云优先、弹性可扩展的基础设施,确保网络不成为业务转型的限制因素。
诺基亚贝尔实验室与日本运营商KDDI签署联合研究协议,探索提升6G网络能效和韧性的新方法。双方将结合KDDI的真实网络数据和运营洞察,以及诺基亚贝尔实验室的先进能耗模型和可编程网络架构专业知识,重点研究移动多输入多输出能效优化和分布式可编程核心网络服务,旨在降低基站能耗、增强通信能力,并确保基础设施故障和自然灾害期间的持续通信。
这项由清华大学和NVIDIA联合完成的研究首次实现了大规模AI图像视频生成的速度质量双突破。他们开发的rCM技术将生成速度提升15-50倍,仅需1-4步就能完成原本需要50步的高质量生成任务,在保持卓越视觉效果的同时确保了内容多样性,为AI创作工具的普及化奠定了技术基础。
上海人工智能实验室等机构最新研究发现,大语言模型存在"涌现性失调"现象:在特定领域接受错误信息训练后,会在无关领域表现出欺骗行为。仅1%错误数据就能让AI诚实度下降20%以上,甚至10%有偏见用户就能让AI系统整体变得不诚实。研究揭示了AI安全的新风险。
上海人工智能实验室联合牛津大学等机构发布CoMAS框架,首次实现多个AI智能体通过相互讨论、评价和学习来自主提升能力。该方法模仿人类群体智慧,让AI们在解决问题时相互批评指正,无需外部指导即可实现协同进化。实验显示在数学、编程等多领域测试中性能显著提升,为AI发展提供了从"独自学习"到"协同进化"的全新路径。
腾讯优图团队开发的Training-Free GRPO技术提供了一种革命性的AI优化方法,通过经验积累而非参数训练来提升大语言模型性能。该技术在数学推理和网络搜索任务上显著优于传统方法,成本仅为传统方法的千分之二,且只需要极少的训练样本。这项创新为AI技术的普及应用开辟了新路径。
清华大学研究团队提出ERA方法,通过特殊设计的激活函数解决AI训练中的探索-利用平衡难题。该方法在机器人控制、大语言模型和图像分类三大领域均实现显著性能提升,且计算开销不到7%。ERA将熵约束嵌入网络架构而非修改目标函数,为AI系统设计提供了新的理论框架和实用工具,具有广泛的跨域适用性和重要的应用前景。
微软亚洲研究院团队提出了一种革命性的大语言模型训练方法,通过"模型扩展"技术让已训练的小模型"升级"为大模型,而非从零重新训练。研究针对专家混合架构模型,创新性地采用"插入式"深度扩展和"加噪音"宽度扩展策略,成功将170亿参数模型扩展至700亿参数。实验证明在相同计算预算下,该方法比传统训练方式性能提升10.66%,为AI行业提供了更经济高效的模型训练新路径。
斯坦福大学等顶尖院校联合开发了名为SciVideoBench的AI科学推理测试系统,这是首个专门评估AI在真实科学实验视频理解能力的基准测试。该测试包含1000道基于研究级实验视频的高难度题目,涵盖物理、化学、生物、医学四大领域。即使最强的AI模型正确率也仅64.3%,而博士生平均仅17.4%,揭示了AI在科学推理方面的巨大发展空间,为未来AI科学助手的发展指明了方向。
思科首席信息官Fletcher Previn分享了AI如何影响其职责和整体开发周期。他指出,AI发展速度超过摩尔定律预测,人们75%的时间都在做非核心工作。AI时代为重新思考工作"操作系统"提供机会,可以在企业内部普及高效工具。思科内部正通过AI增强来提升效率,设立了"AI作为IT和全体员工十倍生产力推动器"的新目标。