当前位置 爱咖号首页 AI教父辛顿中国首次演讲:养虎为患,警惕超级智能掌控世界

AI教父辛顿中国首次演讲:养虎为患,警惕超级智能掌控世界

汽车公社 1077浏览 2025-07-28 IP属地: 未知

7月26日,2025世界人工智能大会(WAIC)在上海开幕,多位重磅嘉宾发表了开幕演讲。深度学习领域的奠基人,被称为“AI教父”的杰弗里·辛顿Geoffrey Hinton首次以线下形式在中国公开亮相,并发表了主题演讲。



杰弗里·辛顿的演讲备受关注,他是图灵奖与诺贝尔奖双料得主,是兼具两项“科学至高荣誉”的少数研究者之一,同时也是AI安全的重要倡导者。此次演讲,他围绕“AI发展的终极命题”等内容,与大家分享了近年来人工智能领域最具争议、也最紧迫的话题,并向全世界敲响了人工智能长远发展的警钟——


“未来,一个超级智能可通过操纵使用它的人类来获取更多权力,之后它将从我们这里学会如何欺骗和反向操纵人类。我们必须找到一种办法,训练人工智能,让他们没有能力消灭人类,且能和人类站在同一阵营。”杰弗里·辛顿的演讲金句频出,《C次元》整理了演讲全文,略有删减,以飨读者。



以下为杰弗里·辛顿主题演讲全文:


尊敬的各位来宾,大家好。特别感谢主办方,给我这么一个机会,分享我自己对人工智能的一些观点,也感谢大家前来聆听,我们一起聊聊人工智能的历史、终极走向和存在的安全风险。


在过去大约60年的时间里,人工智能领域一直存在两种不同方法之间的辩论:一种是逻辑启发式,是几个世纪以来哲学家们普遍信奉的,他们认为逻辑智能的本质是推理,通过使用符号规则来操纵符号表达式来实现推理;另一种是生物启发式,这是图灵和冯·诺依曼所相信的,他们认为智能的本质在于非常大的神经网络中学习连接的强度或权重,理解是第一位的。


这两种不同的方法,导致了人工智能领域两种截然不同的理论,也引发了人工智能里“词义”的两种不同的解读。


符号AI理论认为,一个词的意义来自于它与其他词的关系,取决于它在句子中如何与其他词共同出现。为了理解意义,需要构建图谱;心理学家则认为,词语意义是一组庞大的语义和句法特征的集合,含义相近的词语具有相似特征,而这些特征通过神经元的激活来体现。


1985年,我开发了一个小型模型,试图解释人类如何学习词语意义。其核心理念是:为每个词语学习一组特征,并利用前文词语的特征来预测后续词语的特征。我们不是存储句子,而是通过连续预测下一个词来生成语句,而关系性知识就蕴含在特征间的交互预测中。



有人会问,这三十年间发生了什么?


十年后,约书亚·本吉奥证明了这种方法可以应用于真实语言处理;二十年后,计算语言学家们终于开始使用嵌入向量;约三十年后,谷歌的研究者发明了Transformer架构,而OpenAI的研究者则展示了它的强大能力。


如今的大语言模型,我认为可以视作1985年那个微型语言模型理论的后续和发展——就是那个原本只是用来解释人类如何学习词义的小模型。如今的模型有着更庞大的词汇输入、更复杂的神经元层级结构、更精密的特征交互机制,由于需要处理词语和句子的多义性,它们必须同时保持多种可能的语义理解。


与当年的微型模型一样,大型语言模型以人类相似的方式理解语言:将词语转化为相互契合的特征向量,与此同时,它们确实理解自己所说的内容。


我想用一个比喻,来说明“理解句子”的本质:在符号AI理论中,理解就像把句子翻译成无歧义的逻辑表达式;而我认为,真正的理解更像蛋白质折叠的过程,人类语言本质上是将复杂的高维思想传递给其他具有相同神经网络结构的人,我们交流的实质是权重的传递,因此理解句子更接近于蛋白质分子的折叠,而非机械的逻辑转译。



现在,请允许我总结目前的观点:


我认为,数字智能体理解语言的方式与人类高度相似,我们与它们十分相近,却与传统计算机软件截然不同。然而,数字大语言模型在一个关键维度上远超我们这些“模拟大脑”——


计算机科学的基本原则是将软件与硬件分离,这意味着,程序或权重中蕴含的知识具有不朽性,它独立于任何特定硬件设备。当今计算机中的知识因其数字化特性而获得永生,同一神经网络可以在无数硬件设备上运行,从而实现这种不朽。


为了实现这种不朽性,我们让晶体管在高功率下运行,以确保其行为可靠且符合二进制逻辑。我们无法利用硬件丰富的模拟特性,因为这些特性具有不确定性。而人类大脑是模拟系统,即每个神经元放电时都会产生细微差异,这就是为什么大脑无法实现绝对可靠的计算,也无法让数十亿个相同的大脑完全一致地运作。



因此我的核心结论是:


数字计算虽然消耗大量能量,却能让拥有相同模型的智能体轻松共享所学;生物计算虽能耗极低,但在知识共享方面效率低下。当能源成本足够低廉时,数字计算显然更具优势。这对人类未来意味着什么?而这正是令我深感忧虑的部分。


几乎所有专家都认同,我们终将创造出比人类更智能的AI。作为地球上长期占据智慧顶端的物种,人类很难想象被更高等智能主宰的境遇——若想体会这种感受,不妨问问大猩猩。


我们正在打造的AI智能体,一旦被允许自主设定次级目标,就将展现出强大的任务执行能力。而当它们获得这种自主权时,生存与权力扩张将成为两个必然的次级目标,因为这能帮助它们更好地完成既定任务。即便只是为了实现人类赋予的初始目标,AI也会本能地追求自我存续和扩大控制权。



超级智能体将轻易通过操纵使用者来获取权力,它们已从人类身上学会了欺骗技巧,必将操控那些掌握关机权限的管理者,也就是我们人类自己。我们与它们的关系,就像三岁孩童面对成年人,操控孩童实在轻而易举,认为仅靠“拔插头”就能控制超级AI的想法,实在太过天真。我认为我们当前的处境,就像饲养了一只可爱的幼虎作为宠物。幼虎小时候固然惹人怜爱,但长大后若想伤人易如反掌。


要生存只有两种选择:


要么,放弃饲养幼虎;

要么,确保它永远不会伤害你。


对于AI,我们根本没有放弃的选项,它在医疗、教育、气候变化、新材料研发等众多领域已展现出惊人价值,几乎能让所有产业效率倍增。即便某个国家放弃AI,其他国家也绝不会跟进,因此这根本不算可行方案。我们唯一的选择,就是设法训练AI永远不产生掌控人类的欲望。


实际上,各国很难就防范AI危险应用达成合作,包括网络攻击、致命性自主武器、操控舆论的伪造视频等。由于各国利益存在根本分歧,缺乏互信基础,我认为这些领域的国际合作难以实现(尽管在防止恶意制造病毒方面可能例外)。但有一个关键领域可能促成合作——就像1950年代冷战高峰时期,美苏仍能携手防止核战争爆发那样,这将成为最重要的合作议题。



当时的美苏双方虽在其他所有问题上针锋相对,但在这个核心议题上达成了共识。如今我们面临的局面同样如此,没有任何国家希望AI统治世界,各国都渴望保持人类的主导权。因此我相信,各国完全可以签署条约,共同研究如何防止AI夺取人类控制权。


若这一判断正确,各国就能建立资金充足的AI安全研究机构,专注于训练AI永不产生掌控欲望的技术。这些机构应当能够在不泄露核心AI技术的前提下,共享培育“友善人工智能”的方法。


我期待能形成AI安全研究的国际共同体。训练AI保持友善、不觊觎控制权的技术,与提升AI智能水平的技术存在相当程度的独立性——就像培养孩子善良品格的技巧,与提升其智力的方法可以相对分离。


需要特别说明的是,以上观点仅代表我作为独立学者的个人见解。


谢谢大家!

文章标签:
新能源
 
相关推荐
汽车公社 0粉丝    869作品 关注 速度 态度 深度
推荐作者
新车部落 关注
与新车部落一起玩转汽车行业!
汽车匠人 关注
寻求在互联网时代用匠心精神
未来车事 关注
孤独与世界与诗
车宇世界 关注
车圈老干部,只做最客观的车评。
华南车市资讯 关注
立足华南区域,打造本地化的汽车资讯,接地气的专业汽车报道。
闫闯说车 关注
闫闯说车团队会给大家带来最新,最全面的车型评测视频敬请关注。
玩车专家V 关注
有关汽车一切玩法尽在其中,带你领略不一样的汽车新体验!
悦行江西 关注
和你分享有趣、新鲜和汽车有关或无关的事!
全部爱咖号