2016年初,人们还在惊叹Alpha Go的强大,但在2017年初,我们不能否认人工智能时代已经从方方面面渗透进我们的生活。去年发生了很多“AI取代人”的案例,这其实都说明了一件事,即人工智能会带来一场新的工作革命,它将对我们未来的工作和工作方式产生巨大的改变。
如何让我们的孩子在未来的人工智能时代立足?王作冰和贝尔科教给出的答案是:教育。贝尔科教成立于2011年,专注3至13岁的机器人儿童培训。贝尔科教集团创始人兼董事长王作冰表示,贝尔希望培养AI时代的原住民。
人工智能时代,教育还应该教些什么?
“90后”被称为互联网时代的原住民,这源于他们从童年开始,就伴随着互联网和移动互联网的发展一起成长,因此在思维方式上也与互联网相匹配。不难发现,现在85后和90后们,已经在互联网行业占据了相当重要的地位。
而在人工智能时代,单单互联网思维已经不能满足社会需求了,人们需要知道两个新的关键性问题的答案:“如何与人工智能竞争”、“如何与人工智能合作”。
前者需要对AI有足够的认识,它能做些什么、不能做什么;而后者需要了解如何与它进行“沟通交流”。
王作冰认为,“编程”就是教育孩子适应AI时代的过程中很典型的一个例子。在贝尔的学龄儿童教育中,也有一定比重的编程内容。
AI的应用实际上就是由程序、数据、算法组成的。在人工智能时代,与编程相关的内容将随处可见。因此,面对人工智能带来的工作革命,即便不成为程序员,掌握相关的能力也至关重要。
同时,编程在很大程度上带来的是逻辑思维能力的提升和思维方式的改变。AI应用的目标是提升效率、解放人力、降低成本,其实这也是编程的本质。
王作冰说:“其实我们日常的大部分工作,都可以抽象成为一个‘for循环’和一个‘条件判断’,前者意味着重复性工作,而后者意味着选择。如果孩子能从小掌握这种思考问题的逻辑,对他们理解AI以及与之合作将有不小的价值。”
AI时代会给教育体系带来什么样的变化?
提及传统的教育体系和教育方式,王作冰态度很坚决:“我是一个应试教育的反对者。”他表示,应试教育是社会发展到一定阶段的产物,并非教育本身所需,目前的教育体系是200多年前确立的学科制,主要培养工业时代劳动力。
这种教育方式正在逐渐被改变。因为学生除了需要学习知识,还需要培养例如团队合作、好奇心、创造力、人际交流等等素质,从而在未来AI做不到的事情上,与之互补。而对于这些素质的培养,传统教育模式很难满足。
王作冰介绍,与学科制的教育体系不同,贝尔采用以案例带动、探索知识的教育模式,孩子以团队合作的形式,在教师的指导下对某个事物(例如电梯、闸机等)进行探索,再发散出相关的知识。
与直接告知结果相比,培养孩子的兴趣和得到知识的过程更为重要,因为这对知识的迁移和应用更有效。通过实践获得知识以及逻辑思维的成长,通过举一反三思考运用到解决其它生活问题当中。
一件产品 or 上好一堂课?
近些年,继线上教育之后,教育机器人又称为教育领域新兴的热点之一。在资本进入和国外影响下,国内教育机器人发展很快,陆陆续续出现了很多相关公司和产品。
然而王作冰表示,虽然机器人可以具有很好的教育功能,但绝大多数公司仅仅提供产品的做法其实脱离了教育的本质。只有一件机器人产品的情况下,一方面很难让孩子产生长时间的兴趣,使用一段时间之后就会闲置;另一方面,小孩子在没有辅助的情况下,教育成果也很难保证。
贝尔科教使用了线下门店和线上课程相结合的模式,这种模式更“重”,管理压力和成本更高,但王作冰表示,为了保证教学的质量,这是一件必须要做的事情。他把“上好一堂课”作为了贝尔科教的核心所在,而无论是线上课程、线下门店、机器人产品,归根结底都是为了这一核心服务。
青少年教育,事实上是一个非常特殊的领域,它的对象是学龄前儿童及中小学学生,但付费决定权却基本掌握在家长手中。
对于这个问题,王作冰很欣慰,他说:“在四五年前,我们需要给大约90%的家长上课,他们才能知道我们在做些什么;而现在,基本上只有20%的家长需要进行普及,其他人在听完简单的介绍之后就能理解甚至愿意买账。”
王作冰认为这是一种进步,并且还将持续下去,“很快85后、90后们就要成为家长了,他们更了解AI是什么,也会更了解孩子需要什么。”
好文章,需要你的鼓励
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
麻省理工学院研究发现过度依赖AI会导致认知债务,削弱基本思维能力。研究表明交替进行无辅助思考和AI支持工作的模式能保持认知敏锐度。这种认知高强度间歇训练模仿体能训练中的HIIT模式,通过短时间高强度思考与恢复期交替进行,可以强化大脑神经回路,防止认知衰退,提升独立思考能力。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。