如今的Linux已经远远超出了服务器市场,将其影响力拓展到Android、智能电视、嵌入式设备到网络交换机等数十亿应用实例当中。除此之外,Linux社区在过去几年中亦得到长足发展。正如Linux基金会执行董事Jim Zemlin提供的数据所显示:
Linux内核的源文件数量已达53000个,代码行为2100万。全球共有3900名开发者为Linux项目工作,每天新增代码10800行。另外,每天Linux移除代码行数为5300行,内核修改行数则达1800行。Linux内核每个小时会出现七到八次变动,且每天如此,全年无休。如此巨大的开发规模在整个软件发展史上亦绝无仅有。
而这还仅仅是内核范畴。Zemlin提醒我们,Torvalds还做出了另一项卓越贡献,即利用版本控制与存储库系统Git及其基础之上的GitHub帮助人们管理这一大规模项目。每一次内核更新都立足于GPLv2许可影响到各大Linux发行版,并由此给最终用户带来体验转变。
Linux供应商无需为内核付费,那么Torvalds这位技术大牛要如何生存?他受雇于Linux基金会,担任核心贡献者与管理者,而与英特尔、红帽、三星、Suse、IBM、谷歌及AMD等技术巨头则在资助该基金会的同时为Linux项目贡献着数百万行代码。
虽然从理论层面讲,Torvalds需要向Zemlin报告,但后者用父女关系解释了双方的合作方式:“像我的女儿一样,Linus也很可爱、很聪明,但无论是Linus还是我女儿都不会太重视我的意见。”
Zemlin乐于弱化自己的作用,并表示“我只是滚滚向前的历史车轮的一名监督者。”但是,Linux基金会自身的重要性一直在不断提升——除了Linux内核之外,其还掌握着众多能够决定企业计算未来发展方向的重要成果。
以Linux基金会的开放容器倡议(简称OCI)为例。公平地讲,过去几年当中Docker带来的Linux容器技术带来了无与伦比的巨大影响。在OCI的推动下,云原生计算基金会亦承诺在下一代企业云环境中协调容器管理与编排解决方案的协作关系,并以谷歌的Kubernetes为核心组成部分。
Zemlin对于目前基金会旗下快速增长的Hyperledger项目极为关注,这是一套基于区块链技术的企业级开放账目系统,适用于处理各种交易活动。“区块链拥有着改变互联网领域受信交易属性的潜力,”他指出。“除此之外,它还能够对联网设备的安全性加以保障,允许大家在互联网上使用值得依赖且高度安全的持久加密安全记录。这无疑是个庞大的工程。”
另外,各类开放网络项目的涉及范围之广亦值得关注。将各类成果加以结合,我们已经能够隐隐窥探网络技术的未来走向:OpenDaylight、Open Network操作系统、Open Orchestrator项目、Open Platgorm for NFV、Open vSwitch以及OpenSwitch等等。
随着Linux迎来发展中的第二十五个年头,我们不仅应当肯定其作为操作系统本身所贡献的巨大价值,同时亦需要关注它给整个开源文化及社会认同带来的显著影响。事实上,开源如今已经成为技术发展的重要根据地。
Linux拥有一整套庞大且活跃的贡献者、供应商以及用户生态系统。但在此基础之上,Linux与Apache等基金会的出现让开源项目成为一种具备普适性的技术发展载体,甚至影响到了企业计算的立足根基。相较于最初十年的徘徊与探索,如今的Linux乃至整个开源社区不仅稳固健康,同时亦真正得到全世界人们的认可与尊重。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。