通用大模型可以在100个场景中,解决70%-80%的问题,但未必能100%满足企业某个场景的需求。
预训练模型也就是我们常说的通用大模型,它的训练数据都是大规模低成本获取的,所以通过训练得出的是某种共性能力。目前市场上有非常多的预训练模型,像GPT、LLaMA2等。
预训练模型用学习阶段来类比就好比高中,达到了一个平均水平,但是如果想要在特定领域有更好水平,就需要进一步进修到大学,也就是要在预训练模型上提供更多某领域的知识进行精调训练。
这也是为什么,从今年3月开始国内出现了“百模”大战的原因。《中国人工智能大模型地图研究报告》显示,截至2023年5月底,国内10亿级参数规模以上基础大模型至少已发布79个。2023世界人工智能大会(WAIC2023)上,国内外30余款大模型集中亮相。
“大模型”已经成为业界谈论的高频词,而且也呈现出向垂直领域“小而精”发展的态势。游戏、影视传媒、办公、医疗、金融、电商、广告、ERP、工业、家居等领域已经出现了基于行业大模型的相关应用。
行业大模型参数相对通用大模型更少,在推理和训练上的成本也更低,但是想要让大模型在行业中落地,并不是简单的通用模型加上行业数据就可以实现的。
首先需要将行业中分散的数据集中,其次拥有稳定的训练环境,最后训练上提供高效的算力调度和利用。综合看来不仅要有技术,还要让技术和行业应用场景结合,最后平衡成本、效率和体验,才能真正将行业大模型落地。
本期数字化转型方略也寻找到行业大模型中的参与者,他们分享了自己的行业大模型是如何实现,以及已经落地的场景和案例。同时我们也看到很多企业正在将行业大模型的能力开放出来,让更多的企业可以受惠。
可以预见,未来每一个企业都能拥有属于自己的大模型。
《数字化转型方略》2023年第9期:http://www.zhiding.cn/dxinsight/2309
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。