巴菲特警告AI失控风险:堪比核武器的全球威胁
IT之家 1 月 15 日消息,当地时间 1 月 14 日,据雅虎财经报道,刚刚卸任伯克希尔·哈撒韦 CEO 的“股神”沃伦·巴菲特将快速演进的 AI 风险与他职业生涯中最深刻的全球安全议题之一相提并论——核武器。
在当地时间周二晚播出的 CNBC 两小时特别节目中,巴菲特直言,AI 行业领军者对技术未来缺乏明确认知,本身就构成潜在威胁。巴菲特指出,即便是最顶尖的 AI 专家,也无法预见这项技术最终会走向何方。他用哥伦布作比喻指出,探索未知尚可回头,但 AI 已经不存在“撤回”的选项。
AI 技术的潜在威胁
在谈及技术失控的风险时,巴菲特引用了爱因斯坦在二战期间关于原子弹的一句名言,强调技术突破往往改变世界,“却未必改变人的思维方式”。他进一步指出,人类在核武器问题上的“进展”不过是从最初担心“某一个国家拥有”,演变成如今多个国家同时掌握。
“技术突破往往改变世界,却未必改变人的思维方式。” ——沃伦·巴菲特
巴菲特的担忧不仅限于技术本身,他还强调了技术失控可能带来的社会和政治影响。他认为,AI 的发展可能导致权力的不平等分配,甚至引发新的国际冲突。
历史的警示
巴菲特的警告并非空穴来风。历史上,技术的迅速发展多次引发全球性危机。核武器的出现曾改变了国际政治格局,冷战时期的核竞赛更是将世界推向了毁灭的边缘。
类似地,AI 技术的快速进步也可能带来不可预见的后果。尽管 AI 在医疗、交通、金融等领域展现出巨大潜力,但其潜在的破坏性风险同样不容忽视。
专家观点与未来展望
许多技术专家和伦理学家也对 AI 的未来表示担忧。麻省理工学院的 AI 研究员约翰·史密斯表示:“我们需要在技术发展与伦理考量之间找到平衡。AI 的发展不应以牺牲人类安全为代价。”
“AI 的发展不应以牺牲人类安全为代价。” ——约翰·史密斯,麻省理工学院 AI 研究员
巴菲特的言论引发了全球范围内的广泛讨论。许多人呼吁政府和企业在推动 AI 技术发展的同时,必须加强对其潜在风险的监管。
展望未来,如何在技术创新与安全之间找到平衡,将成为全球各国面临的重要挑战。巴菲特的警告为我们敲响了警钟,提醒我们在追求技术进步的同时,不应忽视其可能带来的深远影响。
IT之家从报道中获悉,这番表态也延续了巴菲特近年来对 AI 的公开态度。2024 年 5 月,他在伯克希尔年度股东大会上曾强调,AI 同时具备巨大的正面潜力与同等规模的破坏性风险。