通用大模型可以在100个场景中,解决70%-80%的问题,但未必能100%满足企业某个场景的需求。
预训练模型也就是我们常说的通用大模型,它的训练数据都是大规模低成本获取的,所以通过训练得出的是某种共性能力。目前市场上有非常多的预训练模型,像GPT、LLaMA2等。
预训练模型用学习阶段来类比就好比高中,达到了一个平均水平,但是如果想要在特定领域有更好水平,就需要进一步进修到大学,也就是要在预训练模型上提供更多某领域的知识进行精调训练。
这也是为什么,从今年3月开始国内出现了“百模”大战的原因。《中国人工智能大模型地图研究报告》显示,截至2023年5月底,国内10亿级参数规模以上基础大模型至少已发布79个。2023世界人工智能大会(WAIC2023)上,国内外30余款大模型集中亮相。
“大模型”已经成为业界谈论的高频词,而且也呈现出向垂直领域“小而精”发展的态势。游戏、影视传媒、办公、医疗、金融、电商、广告、ERP、工业、家居等领域已经出现了基于行业大模型的相关应用。
行业大模型参数相对通用大模型更少,在推理和训练上的成本也更低,但是想要让大模型在行业中落地,并不是简单的通用模型加上行业数据就可以实现的。
首先需要将行业中分散的数据集中,其次拥有稳定的训练环境,最后训练上提供高效的算力调度和利用。综合看来不仅要有技术,还要让技术和行业应用场景结合,最后平衡成本、效率和体验,才能真正将行业大模型落地。
本期数字化转型方略也寻找到行业大模型中的参与者,他们分享了自己的行业大模型是如何实现,以及已经落地的场景和案例。同时我们也看到很多企业正在将行业大模型的能力开放出来,让更多的企业可以受惠。
可以预见,未来每一个企业都能拥有属于自己的大模型。
《数字化转型方略》2023年第9期:http://www.zhiding.cn/dxinsight/2309
好文章,需要你的鼓励
在“PEC 2025 AI创新者大会暨第二届提示工程峰会”上,一场以“AIGC创作新范式——双脑智能时代:心智驱动的生产力变革”为主题的分论坛,成为现场最具张力的对话空间。
人民大学团队开发了Search-o1框架,让AI在推理时能像侦探一样边查资料边思考。系统通过检测不确定性词汇自动触发搜索,并用知识精炼模块从海量资料中提取关键信息无缝融入推理过程。在博士级科学问题测试中,该系统整体准确率达63.6%,在物理和生物领域甚至超越人类专家水平,为AI推理能力带来突破性提升。
Linux Mint团队计划加快发布周期,在未来几个月推出两个新版本。LMDE 7代号"Gigi"基于Debian 13开发,将包含libAdapta库以支持Gtk4应用的主题功能。新版本将停止提供32位版本支持。同时Cinnamon桌面的Wayland支持持续改进,在菜单、状态小程序和键盘输入处理方面表现更佳,有望成为完整支持Wayland的重要桌面环境之一。
Anthropic研究团队开发的REINFORCE++算法通过采用全局优势标准化解决了AI训练中的"过度拟合"问题。该算法摒弃了传统PPO方法中昂贵的价值网络组件,用统一评价标准替代针对单个问题的局部基准,有效避免了"奖励破解"现象。实验显示,REINFORCE++在处理新问题时表现更稳定,特别是在长文本推理和工具集成场景中展现出优异的泛化能力,为开发更实用可靠的AI系统提供了新思路。