通用大模型可以在100个场景中,解决70%-80%的问题,但未必能100%满足企业某个场景的需求。
预训练模型也就是我们常说的通用大模型,它的训练数据都是大规模低成本获取的,所以通过训练得出的是某种共性能力。目前市场上有非常多的预训练模型,像GPT、LLaMA2等。
预训练模型用学习阶段来类比就好比高中,达到了一个平均水平,但是如果想要在特定领域有更好水平,就需要进一步进修到大学,也就是要在预训练模型上提供更多某领域的知识进行精调训练。
这也是为什么,从今年3月开始国内出现了“百模”大战的原因。《中国人工智能大模型地图研究报告》显示,截至2023年5月底,国内10亿级参数规模以上基础大模型至少已发布79个。2023世界人工智能大会(WAIC2023)上,国内外30余款大模型集中亮相。
“大模型”已经成为业界谈论的高频词,而且也呈现出向垂直领域“小而精”发展的态势。游戏、影视传媒、办公、医疗、金融、电商、广告、ERP、工业、家居等领域已经出现了基于行业大模型的相关应用。
行业大模型参数相对通用大模型更少,在推理和训练上的成本也更低,但是想要让大模型在行业中落地,并不是简单的通用模型加上行业数据就可以实现的。
首先需要将行业中分散的数据集中,其次拥有稳定的训练环境,最后训练上提供高效的算力调度和利用。综合看来不仅要有技术,还要让技术和行业应用场景结合,最后平衡成本、效率和体验,才能真正将行业大模型落地。
本期数字化转型方略也寻找到行业大模型中的参与者,他们分享了自己的行业大模型是如何实现,以及已经落地的场景和案例。同时我们也看到很多企业正在将行业大模型的能力开放出来,让更多的企业可以受惠。
可以预见,未来每一个企业都能拥有属于自己的大模型。
《数字化转型方略》2023年第9期:http://www.zhiding.cn/dxinsight/2309
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。