云基础设施市场现在已经非常庞大,很难再有大的变化。但是,因为人们可以轻松地关闭服务器、存储和网络——就像开启它们那样,预测全球云基础设施开支可能非常困难。
不过,这正是大型IT市场研究机构能够得到高额报酬的原因,Gartner的预测专家刚刚发布了2024年和2025年的云基础设施支出预测,前者已经接近尾声,而后者将在几周后开始——我们所有人欢欣鼓舞之后正在翘首以待。
关于Gartner正在进行的云预测,有趣的是其研究人员不断将更高级别的云服务从预测中剥离出来,至少在其向公众展示的数据集中是这样。去年,Gartner将云管理和安全服务从数据集中剔除,该服务预计将在2024年带来500亿美元的收入。而这次在12月的预测中,Gartner又将云业务流程即服务(BPaaS)从数据集中剔除,预计该服务将带来823亿美元的收入。这两个类别并没有并入其他“即服务”类别,如平台即服务(PaaS)或软件即服务(SaaS)软件服务——与数百亿美元相比,这些类别的变化只是小巫见大巫。Gartner不再这样谈论这两个类别了。
在最新的云计算支出预测中,Gartner表示,原始基础设施即服务(IaaS)计算、存储和网络容量的支出将低于春季时的预期。今年5月,Gartner预计2024年全球IaaS收入将略高于1800亿美元,而现在的预测是1698亿美元。这仍然是21.3%的增长,所以不要为云建设者感到难过。我们认为,人工智能服务器在这一增长中占了很大比重——坦率地说,如果2022年至2024年间近700亿美元的IaaS增量支出中有很大一部分来自人工智能服务器,我们也不会感到惊讶。Gartner 没有对此进行详细说明,我们认为这是因为它想向你推销他们的研究报告。
自2021年以来,PaaS的收入或多或少地与IaaS保持一致,并处于相同的支出水平,这是一件值得观察的事情。早在2015年,这是我们从Gartner数据集中获得的最早数据,IaaS 在全球的支出就达到了162亿美元,是PaaS支出38亿美元的4.3倍。四年后,PaaS支出以更快的速度增长,两者在2019年和2020年几乎持平,到了2021年,由于新冠疫情,世界发生了变化,两者开始并驾齐驱。
自2015年Gartner模型推出以来,云销售额的最大部分一直是SaaS,预计将带来全球2508亿美元的销售额。占云计算蛋糕的份额已稳定在40%左右,但十年前这一比例曾超过60%。
桌面即服务(DaaS)尚未起飞,增长速度不快,在云支出的四个类别里占比很小,而且我们认为它作为一个话题即将消失。让我们的个人电脑在云中运行,并通过对功耗要求不高的廉价客户端电脑进行访问,与让我们的个人电脑在本地运行,并配备强大的CPU和GPU以及大型主存储器和闪存,在逻辑上是一样合理的。
但是,我们中很少有人希望在云中运行虚拟PC,我们希望能够在本地使用真正的计算能力完成实际工作——即使将一个带有漂亮图案的笨重冲浪板作为我们的主客户端可能更好、更便宜或更方便。DaaS一直是个哑弹,唯一可能改变这种状况的是企业强制要求使用云PC。我们认为不会出现这种情况。
加在一起,云服务支出(定义为 IaaS + PaaS + SaaS + DaaS)将达到5957亿美元,增长19.2%。
展望2025年,Gartner预计IaaS支出将增长 24.8%,达到2119亿美元;PaaS支出将增长21.6%,达到2086亿美元;SaaS支出将增长21.6%,达到2991亿美元。再加上38.5亿美元的DaaS支出,2025年的云服务总支出将达到7234 亿美元,增长21.4%。
顺便提一下,我们假定在这个数据集中,Gartner没有少算IaaS和PaaS服务,并且从PaaS收入中区分了所有底层 IaaS,从SaaS 收入中区分了所有底层IaaS和PaaS。只有在底层成本被捆绑到云销售的高级服务价格中的情况下,这样做才有意义。
Gartner已经开始跟踪IaaS和PaaS服务捆绑购买时的支出情况,并将其称为云基础设施和平台服务(CIPS)。根据Gartner的数据,2022年,CIPS占IaaS和PaaS总收入的70%,这是一个有趣的统计数字,这一比例在2024年将达到71%,2025年将达到71.6%。
超过三分之二的原始基础设施和平台服务是一起销售的,而且这个比例即将达到四分之三,从长远来看,这就是“云”的含义。如果你选择了一个云,你不仅要选择它对服务器、存储和网络的偏好,还要选择它的平台。我们一直在说,AWS、微软Azure、谷歌云、阿里巴巴云、腾讯云和甲骨文云本身就是完整的平台,与过去或现在的IBM大型机和小型机、Sun Microsystems和惠普RISC/Unix机器或Wintel和Lintel X86服务器一样,都是平台。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。