这不是一个会不会发生的问题, 而是会什么时候发生的问题。
在之前的文章中,我写过关于AI在创新潜能上与之前的科技浪潮的不同之处。文章的核心主题是近期在主流科技浪潮中独一无二的全分布式创新模型。
在过去的几年中,AI无穷的潜力被大肆宣传。这些宣传中,一些是符合实际情况的,但是很多却被过分夸大。
事实上,对于一项正在风头上的科技,人们很难想象未来将会遇到什么样的困难。人工智能和相关技术被追捧的时间已经很长了,常理推断它由盛转衰的最高点也即将来临。在过去长达1年半的时间里我都有这种预感,而高德纳公司2016年的“炒作周期”更是映证了这一看法(参考机器学习):
《高德纳2016炒作周期》
整体来看,AI 可能已经开始出现“幻灭”的势头。作为一种主观推断,幻灭发生的时间无法用科学方法去测算。然而不论我们相信与否,AI的热度会不可避免的有所反弹。然而,关于AI的幻灭从一定程度上来说并不是一件坏事,因为在很多情况下,炒作宣传的内容都远远超过了当前的技术发展水平。
但是我并不担心这种情况的发生,因为我对长远的规划更感兴趣,这包括:过去几年中的杰出成就能否持续发展?是否能继续遵循全分布式的创新模式?或者是事与愿违,AI会最终迎来一个寒冬?
这都很难预测,因为很多因素会减缓现在的创新速率,接下来我会对此进行深入探讨。
1、专利比论文更受偏爱
与之前的技术相比,AI的一个重要优势就是强有力的研究背景。在计算机科学领域,创新程度是用发表的文章以及这些文章对AI技术的影响程度来衡量的。谷歌,脸书,和其他大型AI公司从学校挖走了很多顶尖的AI人才,而这些人才在业界也还在继续发表文章。
尽管学术论文经常会让人觉得晦涩难懂,但是它们确实包含着如何应用一个新方法或者算法来绘制技术的前景蓝图,这也使得AI领域中的大多数创新能够公之于众。甚至有些情况下,在新论文发表的几天之内,github上就会出现相应的应用实例。
在大企业中,关于是否将一个想法发表专利一直都存在争议。考虑到机器学习领域的飞速进展,研究人员都想尽快发表自己的论文,以宣示对新想法的所有权。谷歌目前除了对一些有专利的产品,如 word2vec,对其他产品都持有较为开放的态度。我希望谷歌能继续保持下去,不然这种现象可能会严重阻碍AI社区的发展。
2、少数大公司雇佣了所有的AI人才
目前有很多关于科技巨头从各大高校席卷AI人才的故事。在过去的几年中,很多高调收购案的目的都是为了获得AI核心人才。这种现象的好处是抬高了AI技术的身价,坏处则是人才都去了少数的大公司。
谷歌、脸书、亚马逊、百度、微软、特斯拉、苹果和IBM都在野心勃勃的建立AI中心,并且把能找到的博士生都收入麾下。这些公司在AI研究社区都极力表现以维持自己的声望,但是由于公司内部的工作进程安排使得那些来大公司的人才很难获得在学校或者在自己创办的公司中实践想法的自由度。
如果少数十几家公司网罗了世界上绝大部分的AI人才,我们将看不到更多与众不同的创意和新的解决方案。多数大公司并不能快速换代,创建新产品。因此,我们更需要一个健康的创业环境来激发新灵感。
3、等待好结果的时间太久
当每个人都从Good Morning America上了解到AI时,其实人们的心理倒计时已经开始了。如果没有好的产品来支撑,在宣传维持了一段时间的热度之后,人们终会对AI丧失信心,并且把它丢进名为过度炒作的垃圾桶里。
这意味着如果得不到新的解决方案或者新结论,人们将不会再关注下去。
4、几个重大失败案例
一个难以避免的会减慢AI发展的情况就是出现重大失败。不论是AI公司没能提供承诺的价值,还是一个新产品发售后反响平平,都会给大众埋下怀疑的种子。就像没有值得上新闻的突破一样,类似MD Anderson取消与IBM Watson的合作协议一样的重大失败会让原本对AI很热忱的公众开始产生怀疑。
5、Tensorflow变得太复杂和太占主流
也许这不符合常理,但是实际情况是,拥有很多AI开发平台才是一件好事,而不是像现在这样,Tensorflow成为了主流。无论如何,应用新的AI技术对于小团队和个人都是很困难的。开发整体部署软件(如操作系统)需要大量的开发者的协作,但AI平台与此不同。当一篇新的论文发表后,相互竞争的实践产物经常在几周或几天之内就出现了。
Tensorflow是最流行的机器学习框架,并且正在变得越来越强大和复杂。如果Tensorflow真的变得过于复杂,让人难以应用,或者谷歌失去了对它进行高频更新的兴趣,那Tensorflow本身将会阻碍创新。虽然短期来看,所有人都使用Tensorflow是一件好事,但在长远来看很可能成为一个隐患。
6、我们用深度学习只到达了局部最优
深度学习已经一战封神。现在它能让软件替代医生,甚至能做饭,清洁,洗碗。有些暂时或许还没有实现,但是人们把太多的注意力投注在深度学习上会导致对其他领域的关注不足,而下一个突破点很可能就在这样的过程中被忽视了。深度学习也有自己的不足,所以我们需要持续地探索新的想法和概念。
7、社会和政治上的压力会阻碍AI前进
我认为AI发展会减缓的最主要的原因并不是技术本身或者创造新解决方案的能力,反而是公众对这些方案实施的热度。
公众非常期待5级自动驾驶技术能够应用,同样也对飞机的无人驾驶很感兴趣,但是目前驾驶舱坐着的仍然是人类。
公众多年建立起来的信心可能只需要一个偶然的重大事故就摧毁了。我们可以预见,将来AI会产生的事故不止一个。尽管机器操作可能比人工操作的事故率低,但是AI还是会因为这少数的“事故”获得很惨的下场。
8、放慢速度是件好事
我希望未来AI能够不要太主流。一定程度上,获得巨大关注是一件好事,这会让个人和公司对开发新技术兴致高涨,但这样会产生过度炒作的弊端以及带来很多任意消费而不思回报的盲从者。同时,让我更担心的是热度越高,摔得越重。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。