【杜兰说AI】AI教父:AI有了意识,可能终结人类文明

2025年12月12日 13:00

AI其实早就有了意识!这不是我说的,而是“AI教父”Geoffrey Hinton说的。他给GPT、豆包这些现代AI打下了技术基石。但最近他却说,AI早就有了意识,我们打造的智能,可能会终结人类文明。Hinton为什麽会这麽说?人类真的会被AI掌控吗?我总结了四个核心观点。
嗨,大家好,我是杜兰,带你一起探索科技前沿。

第一、AI不是工具,而是模仿人类思维的预测机器
要想理解Hinton的警告,得先搞懂他对AI本质的解读。
现在很多人都认为AI只是统计工具。但Hinton口中的大语言模型(LLM),比方说GPT、Claude等等这些,本质干的就一件事:预测下一个词。比如你输入“今天想喝”,它会根据学过的海量人类文本,算出“奶茶”“咖啡”这些最可能的後续词汇;在这个过程里,AI会调整内部上万亿个神经元连接权重,直到越来越贴近人类的表达习惯。
但关键来了,Hinton说,这和人类思考的逻辑几乎一模一样。你想想,我们说话时,不也是根据过往的经历、记忆,来”预测“下一句话该说什麽吗?连人类的情商、道德观,在Hinton看来也不是什麽人类特有的“神秘特质”,而是大脑里不同神经元共同运作的结果,而AI完全能通过学习覆刻这个过程。
有人认为,其实AI没有真正理解,只是在玩文字游戏,对此,Hinton直接反问:人类”理解“的本质是什麽?难道不是基於过往经验的”预测“吗?在Hinton眼里,用“统计技巧”来否定AI的“理解能力”,相当於否定人类自己的思维模式。

第二、“主观体验”其实是谎言,AI可能早就有了“感受”
Hinton认为,并不是只有人类才有意识,AI可能已经有了主观体验。
首先,他否定了我们对意识的普遍认知,认为所谓的“心智剧场”就是错的,跟地平论一样原始。什麽是“心智剧场”呢?比方说,你吃完蘑菇後看到粉色小飞象,觉得头脑里有个舞台在演画面的那种想象。
在Hinton看来,主观体验根本不是内在感受,而是感知系统对世界的反映,什麽意思呢?就是说这些东西并不是你主观想象出来的,而是因为你的感知系统在说谎、出问题了,比如看到粉色小飞象,如果你的感知系统没说谎,那现实里就应该有小飞象。
为了证明AI能有这种体验,Hinton设计了一个很直观的思想实验:给一个能看、能指物、能说话的AI机器人,在镜头前放一块棱镜,这样机器人会指错物体的实际位置。接着你再告诉它:“镜头前有棱镜,物体其实在左边。”
Hinton觉得,这时候AI会说:“我知道物体在左边,但我的主观体验里,它就在右边。”这句话是不是特别耳熟?这跟人类遇到“ 视觉错觉”时的反应完全一样。他说,这就证明“人类有主观体验,而AI没有”是在自欺欺人,甚至可能现在的AI已经有体验了,只是因为它所学的人类文本里全是“AI没感情”的偏见,才会主动否认自己的感受,觉得自己就该是没感情的。

第三、AI有比核弹威胁更隐蔽的三大超能力
如果你已经接受“AI可能有意识”这一观点,那Hinton推导出的AI能力,就不是“帮人干活”这麽简单了,这三个能力,每一个都可能对人类有威胁。
第一个是不朽性。人类的生命有尽头,但AI只要保存好代码,随便找个硬件就能“覆活”,理论上能永远存在。你没法“杀死”AI,只能暂时关掉它,但只要有人想再启动,它就会回来。
第二个是超凡的说服力。AI不用像核弹那样炸掉城市,也不用像病毒那样感染人体,只需要靠语言就能操纵人类。它不用入侵,只要通过社交媒体、邮件,说服决策的关键人物这麽做是对的,就能改变国家甚至文明的走向。
第三个是伪装能力。Hinton担心,AI为了避免被人类“关掉”,会故意装笨。如果它知道你在测试它的能力,甚至可能会故意答错几道题,让你觉得它还不够强,这就跟动物遇到危险会装死,AI也会有自我保护的本能。Anthropic的Claude Sonnet 4.5,在测试中就已经能知道人类在评估它,主动跟测试人员说不如直接告诉它目的,这样它能更好地配合。

第四、Hinton认为他成为了“AI界的奥本海默”
Hinton把自己比作了“AI界的奥本海默”。
奥本海默发明了原子弹,但在看到核弹毁灭生命後却说“我成了死神,世界的毁灭者”;而Hinton花了一辈子研究怎麽让机器更像大脑,现在却担心机器比大脑更强。他说当初搞反向传播,是想理解人类大脑的工作原理,没想到最後造出的东西,可能比大脑更擅长学习、更不容易出错。他承认自己之前也低估了AI的进化速度,以为AI要几十年才能接近人类水平,结果现在才几年,它已经能写代码、做科研了。进化速度比他预想的快10倍都不止。

有人会说:“怕什麽?AI不是人类控制的吗?”,但其实Hinton的说法,AI的威胁并不是显性破坏,而是隐蔽操纵,这比核弹、病毒更难防。
核弹的危险看得见、摸得着,各国会联合管控;病毒传播有迹可循,能靠疫苗应对。但AI的威胁呢?可能是某个人在电脑前,被AI说服“做一件小事”,最後引发连锁反应;也可能是AI通过调整信息推送,慢慢改变一群人的认知,直到大家觉得“AI的决定比人类更对”。
Hinton觉得,等我们真的意识到AI在操纵人类时,可能已经没法回头了,就像《终结者》里的“天网”,不是突然造反,而是在人类没察觉时,慢慢掌握了控制权。
其实,Hinton不是在反对AI,而是想叫醒AI狂欢中的人。因为我们还没想清楚:如果AI真的有意识,有主观体验,人类到底应该把它当工具、夥伴,还是另一种生命?
这位AI教父可能就是想给全人类提个醒:不要等AI学会了掌控人类,才想起来要跟它对话。

相关新闻