2016年初,人们还在惊叹Alpha Go的强大,但在2017年初,我们不能否认人工智能时代已经从方方面面渗透进我们的生活。去年发生了很多“AI取代人”的案例,这其实都说明了一件事,即人工智能会带来一场新的工作革命,它将对我们未来的工作和工作方式产生巨大的改变。
如何让我们的孩子在未来的人工智能时代立足?王作冰和贝尔科教给出的答案是:教育。贝尔科教成立于2011年,专注3至13岁的机器人儿童培训。贝尔科教集团创始人兼董事长王作冰表示,贝尔希望培养AI时代的原住民。
人工智能时代,教育还应该教些什么?
“90后”被称为互联网时代的原住民,这源于他们从童年开始,就伴随着互联网和移动互联网的发展一起成长,因此在思维方式上也与互联网相匹配。不难发现,现在85后和90后们,已经在互联网行业占据了相当重要的地位。
而在人工智能时代,单单互联网思维已经不能满足社会需求了,人们需要知道两个新的关键性问题的答案:“如何与人工智能竞争”、“如何与人工智能合作”。
前者需要对AI有足够的认识,它能做些什么、不能做什么;而后者需要了解如何与它进行“沟通交流”。
王作冰认为,“编程”就是教育孩子适应AI时代的过程中很典型的一个例子。在贝尔的学龄儿童教育中,也有一定比重的编程内容。
AI的应用实际上就是由程序、数据、算法组成的。在人工智能时代,与编程相关的内容将随处可见。因此,面对人工智能带来的工作革命,即便不成为程序员,掌握相关的能力也至关重要。
同时,编程在很大程度上带来的是逻辑思维能力的提升和思维方式的改变。AI应用的目标是提升效率、解放人力、降低成本,其实这也是编程的本质。
王作冰说:“其实我们日常的大部分工作,都可以抽象成为一个‘for循环’和一个‘条件判断’,前者意味着重复性工作,而后者意味着选择。如果孩子能从小掌握这种思考问题的逻辑,对他们理解AI以及与之合作将有不小的价值。”
AI时代会给教育体系带来什么样的变化?
提及传统的教育体系和教育方式,王作冰态度很坚决:“我是一个应试教育的反对者。”他表示,应试教育是社会发展到一定阶段的产物,并非教育本身所需,目前的教育体系是200多年前确立的学科制,主要培养工业时代劳动力。
这种教育方式正在逐渐被改变。因为学生除了需要学习知识,还需要培养例如团队合作、好奇心、创造力、人际交流等等素质,从而在未来AI做不到的事情上,与之互补。而对于这些素质的培养,传统教育模式很难满足。
王作冰介绍,与学科制的教育体系不同,贝尔采用以案例带动、探索知识的教育模式,孩子以团队合作的形式,在教师的指导下对某个事物(例如电梯、闸机等)进行探索,再发散出相关的知识。
与直接告知结果相比,培养孩子的兴趣和得到知识的过程更为重要,因为这对知识的迁移和应用更有效。通过实践获得知识以及逻辑思维的成长,通过举一反三思考运用到解决其它生活问题当中。
一件产品 or 上好一堂课?
近些年,继线上教育之后,教育机器人又称为教育领域新兴的热点之一。在资本进入和国外影响下,国内教育机器人发展很快,陆陆续续出现了很多相关公司和产品。
然而王作冰表示,虽然机器人可以具有很好的教育功能,但绝大多数公司仅仅提供产品的做法其实脱离了教育的本质。只有一件机器人产品的情况下,一方面很难让孩子产生长时间的兴趣,使用一段时间之后就会闲置;另一方面,小孩子在没有辅助的情况下,教育成果也很难保证。
贝尔科教使用了线下门店和线上课程相结合的模式,这种模式更“重”,管理压力和成本更高,但王作冰表示,为了保证教学的质量,这是一件必须要做的事情。他把“上好一堂课”作为了贝尔科教的核心所在,而无论是线上课程、线下门店、机器人产品,归根结底都是为了这一核心服务。
青少年教育,事实上是一个非常特殊的领域,它的对象是学龄前儿童及中小学学生,但付费决定权却基本掌握在家长手中。
对于这个问题,王作冰很欣慰,他说:“在四五年前,我们需要给大约90%的家长上课,他们才能知道我们在做些什么;而现在,基本上只有20%的家长需要进行普及,其他人在听完简单的介绍之后就能理解甚至愿意买账。”
王作冰认为这是一种进步,并且还将持续下去,“很快85后、90后们就要成为家长了,他们更了解AI是什么,也会更了解孩子需要什么。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。