一位获奖者说:“本身技术并不坏,但是人们会用技术做坏事。”
拉吉·瑞迪(Raj Reddy)之前是卡内基·梅隆大学机器人研究所的创始所长,他在2016年9月20日的海德堡获奖者论坛上发言。
技术大有潜力让世界变得更美好,但是那些好处远远不能得到保证。一路上会出现许多负面因素,其中一些让图灵奖获奖者特别担忧。
1. 互联网回音室
芭芭拉·利斯科夫(Barbara Liskov)是麻省理工学院的学院教授,她在近日出席德国海德堡获奖者论坛时对台下的新闻记者说:“本身技术并不坏,但是人们会用技术做坏事。我确实很担心这方面。”
利斯科夫最担心的问题之一就是,能够选择性地过滤掉与己见不合的新闻和观点。
由于技术带来的这种极化,“人们不再未必就是良好公民,因为他们可能不明白世界上发生的事情,”利斯科夫说,她在2008年获得了图灵奖。
2. 自由受到攻击
拉吉·瑞迪(Raj Reddy)之前是卡内基·梅隆大学机器人研究所的创始所长,他在1994年获得了图灵奖。他说:“如果我可以使用电子邮件,恐怖分子也可以使用。如今,他们可以借助加密技术保持联系而逍遥法外。”
面临的挑战是,保持言论自由和隐私,又不助长犯罪分子,这就引起了诸多新的道德和理念层面的问题。为了解决这些问题,“政府会侵犯你的个人自由,”瑞迪说。
3. 有缺陷的物联网软件
文特·瑟夫(Vint Cerf)在2004年获得了图灵奖,现在是谷歌副总裁兼首席互联网宣传官。他说:“我曾经以编程谋生,所以很清楚编写优秀软件有多难。”
比如说,用来制定重要政策的电子表格中的一个错误可能会带来深远的影响。控制物联网设备的软件中的缺陷同样如此。
瑟夫说:“我们依赖设备中的软件来确保正常运行。不然,房子可能会着火,或者汽车掉下悬崖。”
瑟夫并不担心“杀手机器人”会大行其道。他说:“我不认为那是重大威胁。普通设备里面有许多软件,只不过软件并没有以我们预期的方式来运行。”
4. 数字化“黑暗时代”
瑟夫还担心这种可能性:由于访问所需的软件变得过时,我们如今以数字化手段保存起来的照片、文档及其他内容可能再也无法显示。
瑟夫说:“软件要做到今后100年可以执行。”
瑟夫表示,云端使用虚拟机以模拟必要的过时硬件将成为解决方案的一部分,不过还需要解决其他问题,包括相关知识产权的所有权以及支持长期保存的商业模式。
5. 互联网安全
利斯科夫说,最后,“我担心上网的孩子们。我认为,这年头当父母比过去难当多了。”
她补充道:计算机科学家们“并没有预见到互联网的爆炸式发展或邪恶的黑客和网络喷子。想当初,我们在网上都是朋友。”
利斯科夫说:“给我希望的是,我们在过去遇到了这类事情,我们最后想出了更好的办法应对这类事情。我希望我们能够再度做到这点。而在此期间,我为子孙一辈感到担心。”
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。