根据IDC最新发布的全球人工智能市场半年度追踪报告显示,2021年全球AI市场(包括软件、硬件和服务)收入预计将同比增长15.2%,达到3418亿美元,并且将在2022年进一步加速增长,增幅达到18.8%,到2024年有望突破5000亿美元大关。在三大技术类别中,AI软件将占到整个AI市场的88%,但是在增长方面,AI硬件预计未来几年增长最快。从2023年开始,AI服务将成为增长最快的细分市场。
在AI软件方面,AI应用收入占比最大,接近50%。增长方面,AI平台增长最为强劲,五年复合年增长率(CAGR)为33.2%,最慢的是AI系统基础设施软件,五年复合年增长率为14.4%,约占所有AI软件收入的35%。AI应用市场中,AI ERM预计未来五年的增长略强于AI CRM。与此同时,AI生命周期软件预计将在AI平台市场中增长最快。
IDC人工智能和自动化研究集团副总裁Ritu Jyoti表示:“技术颠覆令人不安,但却可以成为创新和转型的催化剂。2020年是加速数字化转型和增强企业AI价值的一年。现在AI增强的工作和决策已经覆盖了企业所有职能领域,能够负责任地创建和使用感知、预测、响应和快速适应的人工智能解决方案,是一项重要的业务需求。”
2020年AI服务市场规模估计为194亿美元,是相对于硬件和软件增长最快的细分市场。到2021年,增幅预计达到19.3%。接下来的五年内,预计将实现最高的复合年增长率,达到21%。AI服务市场可分为两个板块:IT服务和业务服务。其中,IT服务规模较大一些,在AI服务收入中占比近80%。从增长的角度来看,这两个板块是接近的,五年复合年增长率为21%。总体而言,到2025年AI服务市场规模预计将达到500亿美元。
IDC分析和智能自动化服务研究经理Jennifer Hamel表示:“AI已经成为企业未来发展的一个重要组成部分,推动了对服务合作伙伴的需求,以帮助企业组织解决试点项目和企业AI之间的很多障碍。客户需要相关专业人才来开发生产级AI解决方案,创建合适的组织结构、平台、治理、业务流程和人才战略,以确保大规模采用可持续的A能够推动IT服务和业务服务领域的扩张。”
这次发布的AI追踪报告中,有近190家公司被纳入AI服务市场。在AI IT服务下,2020年排名前三的公司分别是IBM、埃森哲和塔塔咨询,且收入均超过10亿美元,合计占有26%的市场份额。除此之外,还有八家公司的收入规模超过5亿美元。2020年AI商业服务排名前三的公司分别是安永、埃森哲和德勤,合计占46%的份额。除此之外,有9家公司的收入规模超过1亿美元。总体而言,这两个AI服务细分市场的竞争格局仍然是高度碎片化的,服务价值链中的很多参与者都在持续投资于技术资产、创新资源、以及能够运用AI为客户解决特定行业或者领域特定问题的专业人才。
虽然AI硬件是最小的细分市场,仅占整个AI市场的5%,但是预计到2021年增长是最快的,同比增长29.6%,而且2022年也将保持最佳增长点,未来五年复合年增长率预计为19.4%。AI硬件细分市场有两个板块,分别是服务器和存储,其中服务器的份额较大,约为82%,而存储的增长更好,五年复合年增长率为22.1%。
IDC基础设施系统、平台和技术研究总监Peter Rutten表示:“AI服务器和存储市场受到新冠疫情的影响比预期的要小,现在正在快速复苏中,尤其是在边缘领域。所选的基础设施正在围绕那些使用协处理器的大规模并行计算以及具有高速连接和网络的服务器集群进行融合。”
2020年在AI服务器市场,共有6家公司收入超过5亿美元,(按字母顺序)分别是戴尔、HPE、华为、IBM、浪潮和联想,合计占62%的市场份额。在AI存储市场,有6家公司收入超过1亿美元,(按字母顺序)分别是戴尔、HPE、日立、华为、IBM和NetApp,合计占68%的市场份额。
好文章,需要你的鼓励
这项研究提出了HoPE(混合位置编码),一种针对视觉语言模型的新型位置编码技术,专门解决长视频理解的挑战。传统位置编码技术在处理长视频时表现不佳,HoPE通过两个创新解决了这一问题:混合频率分配策略(为空间信息分配高频,时间维度使用零频率)和动态时间缩放机制(根据视频速度灵活调整时间编码)。实验证明,HoPE在长视频理解和检索任务上分别提升了8.35%和22.23%,为AI更准确理解长视频内容开辟了新途径。
东京大学研究团队推出MangaVQA基准和MangaLMM模型,专门用于评估和提升AI对日本漫画的理解能力。MangaVQA由526个高质量手动创建的问答对组成,用于评估AI系统对漫画内容的深入理解;MangaOCR则专注于漫画页内文本识别。基于这两个基准,研究团队从开源多模态模型Qwen2.5-VL微调出MangaLMM,能同时处理文本识别和内容理解任务。实验显示,即使是GPT-4o等顶尖商业模型在处理漫画的独特复杂性时也面临挑战,而专门训练的MangaLMM表现出色。
这项研究由ISTA和谷歌研究院联合开发的"影响力蒸馏"方法,通过利用二阶信息为训练样本分配最优权重,实现了大语言模型训练数据的高效选择。该方法在数学上有坚实理论支持,并创新性地引入"地标"近似技术,仅需计算少量样本的精确影响力,再高效传播到其他样本,大幅降低计算成本。实验证明,该方法在多种模型和任务上均优于或匹配现有技术,同时实现了高达3.5倍的速度提升,为大模型训练开辟了更高效的路径。
来自哈佛大学等顶尖学府的研究团队在这篇论文中挑战了传统观念,认为Token压缩不仅仅是提高AI模型运行效率的工具,更应成为生成式AI模型设计的核心原则。研究表明,精心设计的Token压缩策略可以促进多模态深度整合、减轻AI"幻觉"问题、增强处理长序列输入的能力,并提高训练稳定性。论文详细分析了现有方法的局限性,并提出了算法创新、强化学习指导和硬件协同设计等未来研究方向。