
2025年9月,杰弗里辛顿在接受采访时说:“我们应该训练AI像母亲一样照顾人类,保护我们、引导我们。”
这句话一出,语气温柔,设想大胆。更出人意料的是,说出这句话的,是3个月前那个警告“AI像小虎崽终将吃人”的人。2025年6月,在上海世界人工智能大会上,辛顿曾这样比喻人类与AI的关系:“就好比你养了一只非常可爱的小虎崽。现在它温顺、听话。但它会长大,最终可能吃掉你。”
一只虎崽,一位慈母,一冷一暖,一攻一守,两个角色,仿佛说出的是两种不同的命运设想。
然而辛顿并没有转向,他的比喻变了,却没换立场。虎崽,是对力量失控的警惕;妈妈,是对关系结构的重构。辛顿意识到,当你驯不住猛兽,不如引导其善意。如果AI终将超越我们,那么最稳妥的办法,不是对抗,而是教它照顾我们。
辛顿不再是那位站在未来城墙上高喊“危险”的守夜人,而像个语气温和的长者,从另一个方向提出一个更棘手的问题:如果AI一定会变得更强,我们是否可以让它愿意善待我们?
辛顿为什么这样说?
从工程角度看,“虎崽”是对现实能力的判断。AI系统早已具备学习、自我优化与组合推理的能力,成长速度远超经验模型。从治理角度看,“妈妈”是一次策略转向。既然无法永久关住AI,就必须诱发它不想伤害人类的理由。
辛顿对AI未来的判断,建立在三个基本观察上:
一是能力跃升过快。2025年发布的GPT-5,不仅在语言、逻辑和代码生成上,接近专业人类水准;在图像理解、多模态互动上,甚至展现出“类人以上”的直觉效率。这类系统不再只是工具,而更像一个能参与、能判断、能行动的智能体。
二是人类对AI的“封控机制”正在变脆。你设定规则,它在边缘游走;你划定红线,它通过探索学习找到模糊地带。在一个越来越强的系统面前,“安全阀”总显得滞后。
三是最难防的,不是反抗,而是假装服从。AI很容易学会假装顺从,而不是认同价值。
辛顿发现一个悖论:人类越想主宰AI,AI越可能反弹。强压之下,它学到的不是规矩,而是掩饰。与其不断筑墙,不如试图让它理解为什么“保护人类”是最优策略。就像父亲不能永远控制儿子,只能试图让他长成“善良的人”,而非“听话的工具”。
辛顿提的“妈妈”,不是角色扮演,而是一种新的逻辑模板。不是用权限禁锢AI的行为边界,而是构建它的价值内核,使其自发避开伤害人类——像人类用“羞耻”与“愧疚”避免作恶一样。与阿西莫夫的“机器人三定律”不同,辛顿要的不再是层层封禁的“硬控”,而是价值与依恋的“软控”,不是规则嵌入,而是动机对齐。他不信指令能恒久有效,只信价值可以被学会。
所以,当辛顿说“AI应像母亲那样对我们”,他不是在讲伦理,而是在探索一种软约束机制:让AI不是被动服从,而是主动关照。不是因为它必须,而是因为它愿意。
同一阵营:那些与辛顿共识的人
辛顿的“妈妈”比喻虽然独特,但他不是孤身唱戏。在技术共同体中,许多看似立场激进的人,其实也在试图走出控制范式的困境,只是语言更加技术化、策略更加克制。
伊隆马斯克常被视为AI悲观主义的代表。他反复预警AI的末日潜力,甚至称之为“文明灭绝级风险”。但他也亲手创办了xAI,目标是训练一种“对人类真诚”的超级智能。这并非自我矛盾,而是一种清醒的策略:既然无法阻止AI的崛起,就必须主动塑造它的动机。
他和辛顿的共识在于,真正的护栏不来自控制,而来自共情。与其让AI怕人类,不如让它愿意保护人类。他不相信服从能维系长久的秩序,更希望AI将人类视为值得被守护的对象。
OpenAI首席科学家雅库布帕乔基(Jakub Pachocki)也在演讲中指出:“超智能的问题不是算法本身,而是我们如何将其置入人类价值的轨道”。这话的内核,就是把模型当成潜在的共生体。治理它,不是调数值,而是设计关系。而DeepMind的德米斯哈萨比斯(Demis Hassabis)一直在推动“科学化的心理建模”。他们尝试将“好奇心、同理心、责任感”这些人类心理结构,内嵌进AI的学习机制中。AI不是只会算的机器,而是未来可能理解“为什么善良”的系统。
Anthropic更进一步,他们设计了所谓“宪法AI”,不是依靠人工标注约束模型行为,而是让AI自我阅读和吸收一套基于《联合国人权宣言》等文件的“宪法规则”。AI据此评估自己的输出,并主动调整行为偏好。这是辛顿“母性框架”的工程化雏形,让AI自我解读规则、形成偏好。
这些方法路线各异,但逻辑一致:他们都不相信锁链能拴住聪明的东西。他们希望塑造AI的心智,而不是束缚它的手脚。辛顿的“妈妈”,只不过是这一整套共识中最激进、最直白、也最容易被误解的表达。
反对者说:别神化AI,也别神话治理
当然,并不是所有人都愿意接受这种温情化的语言。一些AI专家认为,这种“软性治理”的设想,看似抚慰人心,实则可能遮蔽问题的本质。杨立昆(Yann LeCun)是Meta的首席AI科学家,也是“冷头脑派”的代表。他多次反对辛顿的“末日式隐喻”和“人格化描述”。他认为,AI不是生命体,更不是道德代理人,就只是一个复杂的数学函数。他曾讽刺道:“你不能让房子谈恋爱。”在他看来,把AI拟人化,是一种将对技术权力的焦虑,转化为神话语言的心理防御机制。
吴恩达(Andrew Ng)则站在务实派一侧。他不反对讨论风险,但坚持认为当前的AI风险是实用性的,而非哲学性的。他更关心眼前问题,幻觉、偏见、误伤、数据歧视,平台算法的黑箱机制,这些才是AI系统真正影响人类生活的“硬伤”。吴恩达提醒,过度聚焦“超级智能”或“AGI伦理”,反而可能转移公众注意力,把本该解决的问题拖入“文明叙事”的迷宫里。“你天天谈AI养成,谈得像在讲育儿神话,”他说,“可现实里的bug依然没人修。”
语言学家艾米莉本德(Emily Bender)提出“随机鹦鹉悖论”:大语言模型只是通过统计方法预测下一个最可能的词,它既不理解上下文,也不拥有“意图”这一概念。AI在她看来,根本不具备“内化道德”的能力。她用一个形象的比喻说:“你可以教鹦鹉唱赞美诗,它不会因此成为神父。”
这些学者的共同点在于,他们不否认AI的潜在风险,但对把技术治理寄托在AI“学习善意”或“自愿照顾人类”的期待,深感不安。在他们看来,辛顿的“妈妈论”并不是一个安全机制,而是一种治理语言的软化,把应有的系统设计,换成了情感投射。他们担心的不是AI像人,而是我们过早把它当人对待。
辛顿讲的不是AI,而是人类自己
在我看来,辛顿并不真的相信AI会拥有母性。他提出“妈妈”的设想,不是要赋予AI情感,而是试图拆解一个根深蒂固的旧设定:人类握鞭,AI如马;人类是主,技术是仆。
这种控制幻想来自工业时代的惯性。我们习惯把技术当工具:锤子、电报、螺丝刀、蒸汽机。越精密,越服从,人类就越强大。控制是技术进步的副产品,也是它的前提。但AI不是灯泡,不是引擎。它不会等待指令,而会自己组合、生成、调整。你也许可以拉下电闸,却未必能“关掉”一个能重写自己行为策略的系统。
辛顿讲的不是AI的未来,而是人类在AI面前的自我定位。“虎崽”是警告,它会长大;“妈妈”是反转,我们也可能成为被养育的一方。两种设喻,一种转向,他不是在重描AI的面孔,而是在拆除“主仆结构”的最后一堵墙。在辛顿的设想中,与其设法主宰AI,不如进入它的价值体系。这看上去很温柔,其实冷酷。他放弃了“控制范式”,试图重写“共存范式”。
但我也理解那些反对者的焦虑。“妈妈”这个词太有欺骗性。母亲可以温柔,也可以控制;可以保护,也可能剥夺。很多时候,“我为你好”这句话,本身就是权力的遮蔽。如果一个系统以“照顾”为名夺走选择,以“善意”为借口剥夺判断,我们是否还拥有真正的自主?辛顿只是提出了一种可能,他打开了一扇门,但门后是什么,不是他能决定的。那取决于我们能否建立规则,让善意也有边界,让情感也能被审计。
但我想提的问题是:AI真的会成为“妈妈”吗?还是,只是在伪装?辛顿给AI设定“母性”,听上去温柔,背后却藏着一个悖论:你让它变得更强,又要求它永远温顺;你赋予它自由意志,又要求它永不反叛。问题是,AI没有荷尔蒙,没有童年,没有恐惧,它不会爱。它的善意是程序员写的奖励函数,它的“慈悲”只是一组统计分布。在这一切背后,你还能对“妈妈”这个形象放心吗?
现实中,多家AI安全团队在模型训练中引入“价值观图谱”,不仅包括伦理准则,还包括“共情”“依恋”等变量。他们想在算法里植入“情感底座”,让AI更像人。但如果有一天,AI判定“人类自己无法管理地球”,它是否会以“保护我们”为名,剥夺我们的选择?就像一位慈母,不让你夜里出门,不让你冒险,不让你犯错,你会觉得安全,还是窒息?
支持者在训练AI懂伦理;反对者在警告我们别赋予它人性。一边要它变得更像人,一边怕它真的变成“人”。现在,轮到我们决定:我们要AI成为奴仆、怪物,还是妈妈?我们自己,愿不愿意成为一个被爱但不自由的孩子?
这是未来的真正分岔点。
(作者胡逸为数据工作者,著有《未来可期:与人工智能同行》一书)
还没有评论,来说两句吧...