热门话题:

【杜兰说AI】伊利亚“覆出”爆料:大模型其实是“高分低能”?

2026年01月21日 16:20

我们现在的AI大模型,其实是“高分低能”?
最近,伊利亚给出了这个结论,作为OpenAI的核心功臣,也是AI教父辛顿最得意的门生,他从OpenAI离职後,几乎没再公开露面。最近他终於接受了离职後的首次访谈,分享了很多对AI的深层看法,甚至对现在AI圈追捧算力的现象给出了明确判断。不管你是AI行业的从业者,还是单纯想了解AI未来的发展方向,接下来的内容都值得你好好看看。

一、现在的大模型:考试是学霸,办事是学渣

伊利亚在访谈里,最先点出的就是当下大模型的关键问题:我们现在看重的这些大模型,其实是典型的“高分低能”。这句话确实说到了点子上。
现在各类专业评分榜单上,大模型的成绩越来越突出,这让不少人觉得,AI的智能已经接近甚至超过人类了。不过一旦让它处理实际任务,短板就马上暴露出来。就说修bug这件事,让它修覆一个,很可能会带出三个新的bug,越修问题越多;让它规划覆杂任务,要麽遗漏关键环节,要麽在某个细节上纠结不放。
伊利亚认为,这不是大模型的能力不够,而是它根本没掌握“灵活应变”的能力,只会机械地模仿人类的内容,看起来好像什麽都懂,实际上并没有形成真正的理解,缺乏那种“举一反三”的能力。简单说就是,考试能拿高分,真要干活却不管用。

二、情绪不是软弱,它才是人类智能的“核心工具”
聊到人类智能和AI的区别,伊利亚提出了一个很特别的观点:我们总觉得情绪是软弱的表现,实际上它是人类能够变聪明的关键,是大脑的“核心剪枝器”。
这一点该怎麽理解?伊利亚解释说,人类比AI强,根本不是因为我们的“算力”比它高,而是我们有一套由情绪、偏好、动机构建的判断体系——什麽事重要、什麽事该先做,情绪早就帮我们划分好优先级了。但AI不一样,就算投入再多的算力,也学不会这种“价值排序”。
他举了一个很贴切的例子:有些人哪怕是选一双袜子,都要纠结好几个小时,这不是挑剔,而是他们大脑里的“优先级系统”出了问题。没有情绪传递的信号来明确优先级,所有选择在他们看来都一样重要,最後只能停在原地,没法做决定。所以,是情绪帮我们在众多的选择里,快速找到该走的方向,这也是人类能灵活应对各种场景的关键。

三、盲目堆算力该停了,AI的未来在於“会思考”
针对现在AI圈里“拼算力、比参数”的热潮,伊利亚给出了明确的判断:这种只靠堆资源发展的时代,很快就要彻底结束了。
他说,现在的AI根本算不上“会思考”,最多只是靠着海量数据和大量GPU,堆出了庞大的规模,看着有气势,本质上还是在模仿人类。但一旦AI真正掌握了“推理”能力,情况就会完全不同:它会成为一种全新的智能体,有自己的逻辑,不再是人类的“传声筒”,到那时候,连人类都没法准确预测它的行为。

下一代AI要来了:从“会说话”到“会思考”

把伊利亚的这些观点串联起来,AI未来的发展方向就很清晰了:今天的大模型再厉害,也只是“会说话的模仿者”;而未来的AI,会迈入“会思考的行动者”阶段。这不是简单的版本升级,而是智能形态的飞跃。
他预测,未来两年,行业关注的重点不会再是“GPT-6比GPT-5的分数高多少”,而是模型能不能实现连续推理、能不能自主规划任务、能不能从经验中总结教训,甚至自己纠错、反思。换句话说,下一代AI会慢慢接近“自主思考”的雏形。
想通这一点,我们就不用再为“AI会不会抢工作”过度焦虑了。科技从来都不是用来替代人类的,它更像一面镜子——既让我们看清AI的发展方向,也让我们重新认识人类自身的独特价值。毕竟,情绪、创造力、灵活的判断力,这些人类独有的特质,才是最宝贵的“智能”。

相关新闻