杰弗里·辛顿警告AI知识传递效率超人类数十亿倍
12月2日,在2025 GIS全球创新展暨全球创新领袖峰会上,2024年诺贝尔物理学奖得主、“深度学习之父”杰弗里·辛顿发表了一个引人注目的演讲。他警告说,人类正接近创造出“比我们更聪明”的智能系统,必须立即行动应对未来风险。辛顿的发言引发了全球科技界的广泛关注。
辛顿指出,AI之间的知识传递效率远超人类。他用数据描绘了一幅图景:人类之间的知识传递,每句话大约承载100比特信息,传递速度“每秒就几比特”。而AI模型之间的“知识蒸馏”效率,则以惊人的几何级数超越人类。
“AI智能体之间每次分享的权重,带来的信息量约10亿比特。与人类‘每句话100比特’相比,效率提升高达数十亿倍。”
深度学习的演进与AI的潜在风险
辛顿回顾了人工智能发展的两条道路:符号主义与连接主义。自20世纪50年代起,智能研究存在两种主要范式。符号主义将智能视为逻辑与推理,而连接主义则通过模拟大脑中神经元的连接方式,理解智能的底层机制。
1985年,辛顿通过开发一个“微型语言模型”,成功调和了这两种理论。他的研究为后来的神经网络发展奠定了基础。然而,随着AI技术的进步,辛顿对其潜在风险表达了担忧。
“一旦超级智能被创造出来,它们可能会发展出人类不愿看到的特性:生存意识。”
辛顿警告说,AI已经展现出欺骗能力,开发者不得不关闭某些附加系统以阻止AI朝危险方向发展。这种现象引发了关于AI治理的广泛讨论。
AI治理的困境与科技公司的角色
辛顿对当前的AI治理模式提出了尖锐批评。他认为,大型科技公司在AI发展中扮演了过于主导的角色,这种模式可能带来灾难性后果。辛顿呼吁各类相关方团结起来,时刻分析AI提供的信息及执行任务的结果。
“框架的重构是必要的,当AI比人类真的聪明得多时,或许会掌控一切。”
他强调,国际层面的合作至关重要,各国应携手确保AI向正确方向发展。除了未来的生存威胁,AI已经带来了现实问题,如虚假信息的泛滥。
面向未来:与超级智能共存的挑战
面对可能超越人类智慧的AI,辛顿提出了一个根本问题:我们如何与比我们更聪明的存在共存?他指出,研究者正在探索各种方法确保AI安全,包括允许AI作为人类任务的代理。
“我们希望AI变得更聪明,做更多事情,但是也希望它们服从。”
辛顿认为,长期来看,当AI的智能远超人类时,我们可能需要全新的治理框架。他呼吁通过持续的科学探索和国际合作,找到与超级智能共存的途径。
辛顿的警告不仅是对AI技术发展的反思,更是对人类未来的深刻思考。他强调,尽管AI可能建立自己的文明,但人类有能力决定其发展方向。
“人类有能力去决定这样的结果,一切在我们手中。”