数据分析和人工智能现在在全球任何区域都是被谈论最多的技术,尤其是去年生成式AI的出现,可以说搅动了整个人工智能市场,重塑了各行各业对于人工智能的认识。
每年Gartner都会发布针对全球市场的人工智能技术成熟度曲线,今年不仅有全球的报告,Gartner还首次发布了2023年中国数据分析和人工智能技术成熟度曲线。
2023年人工智能技术成熟度曲线的变化主要体现在生成式AI上,中国的技术成熟度曲线则囊括了数据分析和人工智能两个方面。Gartner高级研究总监张桐说,两个报告的横向比较上会有所不同,全球的曲线有智能体和多模态的展现,中国的曲线则更聚焦在相对成熟的大模型和相关应用等。
全球和中国在AI领域上的技术成熟度基本一致,差异比较大的技术成熟度主要在知识图谱,在海外很多企业已经清楚知道知识图谱的能力,但中国很多企业虽然也意识到了知识图谱的重要性,但是由于数据基础和缺乏技术储备,依然很难创建。
Gartner高级研究总监张桐
生成式AI还有很多的泡沫
中国数据分析和人工智能技术成熟度曲线的大模型和生成式AI分开讨论,主要是因为生成式AI的涵盖过于广泛。
在张桐看来,所有生成式AI都是基于基础模型,像GPT、Stable Diffusion等,但现在我们说的生成式AI更多是在基础模型上产生的前端应用。
而大模型才是真正让生成式AI有了今天的发展,让AI产生变革的基础,所以中国将大模型单独作为一个技术放在曲线中,而且大模型的技术还有一定的发展空间。
目前大模型和生成式AI在曲线顶端,就意味着它有很多泡沫。很多企业也已经意识到只有几家企业可以做基础模型,更多企业需要做的是将基础模型通过企业的数据进行精调训练或者利用和知识库结合的提示语,在上面形成自己的应用,就像是选择基于iOS还是安卓开发APP一个道理。
商业闭源大模型在某些领域会有自己的独特优势,因为他们有独有的数据进行训练,有资本的支持并且有一套更完备的反馈机制。另外就是开源大模型,一些企业将自己的大模型开源可以更快的帮助模型占领市场份额。。目前中国企业由于合规和数据安全问题,更多会选择开源大模型,或者闭源大模型的本地部署。
未来基础模型的架构可能还会不断演进,张桐认为,Transformer是模拟人脑的工作模式,但是人脑的能耗是非常低的,而大模型的能耗相当高。所以在算力和算法上期待有新的突破。
数据分析技术多在萌芽期
在数据编织、数据资产管理、组装式数据和分析、数据中台等技术上,中国也有着明显的关注提升。
数据编织是一种基于元数据的新型数据管理框架,用于获得灵活快速的的数据服务,涉及数据集成、主动元数据管理、知识图谱、机器学习。背后核心的主动元数据管理和知识图谱技术,距离真正的实现可能系还要较长的时间。
数据资产管理则是Gartner认为在曲线中唯一一个两年之内就可以实现的技术。张桐提到,我们在做这个判断的时候有很多争论,因为很多人认为数据资产管理中有很多客户数据,客户的数据价值有多少,能不能入表都是问题。从海外看虽然数据入表谈了不下十年,但是目前依然没有实现。然而随着我国最近出台的《企业数据资源相关会计处理暂行规定》,显然我们的进展更快,也佐证了我们判断的准确性。
我们的快速进展主要依赖于政府的推动,像数字中国、数据20条,数据要素等政策的颁布,希望数据能够真正产生价值,所以Gartner认为中国相对海外会有更快的发展,大概率能够更快实现。
而且组装式数据分析比数据中台会更符合很多企业的需求,张桐把组装式AI比作了乐高玩具,不同的业务人员使用的数据不同,使用的分析工具也不同,插拔式的组装更容易满足个性化的需求。
数据中台的建设是希望实现数据的灵活复用,以及快速敏捷的应用业务的需求,但是很多中台没有达成这个目标,所以Gartner认为可组装数据分析平台可能是未来的趋势。张桐说,不应拘泥于中台这个名词,将多样的数据分析产品组合在一起实现数据分析的诉求才是不变的趋势。
好文章,需要你的鼓励
谷歌地图将集成Gemini人工智能技术,旨在将其升级为一个"全知型副驾驶"助手。这一整合将大幅提升地图服务的智能化水平,为用户提供更加个性化和全面的导航体验。通过AI技术的加持,谷歌地图有望在路线规划、地点推荐和实时信息服务等方面实现重大突破。
这项由圣母大学和IBM研究院联合开展的研究,开发出了名为DeepEvolve的AI科学助手系统,能够像人类科学家一样进行深度文献研究并将创新想法转化为可执行的算法程序。该系统突破了传统AI要么只能改进算法但缺乏创新、要么只能提出想法但无法实现的局限,在化学、生物学、数学等九个科学领域的测试中都实现了显著的算法性能提升,为AI辅助科学发现开辟了新的道路。
微软研究人员发布新的仿真环境来测试AI智能体,研究显示当前智能体模型容易受到操纵。该名为"Magentic Marketplace"的合成平台让客户智能体与商家智能体进行交互实验。测试包括GPT-4o、GPT-5和Gemini-2.5-Flash等模型,发现智能体在面临过多选择时效率下降,且在协作方面表现不佳。研究揭示了AI智能体在无监督环境下的性能问题。
卡内基梅隆大学研究团队通过3331次大规模实验,系统揭示了代码训练如何提升AI推理能力。研究发现,代码的结构特性比语义内容更重要,适当的抽象形式(如伪代码)可以达到与原始代码相同的效果。不同编程语言产生差异化影响:低抽象语言有利于数学推理,Python更适合自然语言任务。这些发现为AI训练数据的科学化设计提供了重要指导。