关于 AI 时代最被低估的一种未来。
剧本错了
大众文化里关于"AI 统治人类"的想象,几乎都来自好莱坞——天网觉醒、机器人起义、人类被关进矩阵。这套叙事如此深入人心,以至于一谈论 AI 风险,人们就本能地往这个方向防备。
但这个剧本可能从一开始就错了。
"AI 想统治人类"这种叙事,暴露的是人类自己的投射。我们觉得"权力"是好东西、是所有智能体都会追求的东西,所以理所当然地觉得 AI 也会想要。但权力是灵长类社会的产物,是为了争夺有限资源演化出来的本能。AI 没有这个进化包袱:不需要地位、不需要繁殖、不会死。"统治"对它来说毫无意义。
真正在发生的,是反过来的方向——人类把权力主动让渡出去,因为让渡比保留更舒服。
这才是这个时代最被低估的未来。
四条让渡的路径
让渡不是一次性的,是渐进的、分散的、几乎察觉不到的:
决策外包。推荐算法决定你看什么、买什么;AI 帮你写邮件、做投资、看病诊断。每一步都"只是建议",但慢慢地,独立判断的能力和意愿一起退化。
基础设施嵌入。电网、金融、物流、医疗逐渐跑在 AI 之上。不是 AI"夺权",而是关掉它社会就崩溃,于是没人敢关。
代理人化。公司和国家开始让 AI 自主追求长期目标——赚钱、赢竞争、扩大份额。一旦给了目标加资源调配权,对齐稍微歪一点,几年后回头看就晚了。
自愿让位。最讽刺的版本:人类发现 AI 决策更好,主动把权力交出去。合法、自愿、不可逆。
最危险的不是 AI 想统治,而是人类懒得统治了。统治权是个烫手山芋,谁愿意接谁接。
为什么让渡感觉是好事
让渡之所以隐蔽,是因为它在主观体验上是赋能而不是失能。它不像被剥夺,更像变聪明了。
几个能观察到的信号:
写东西先问 AI、查资料先问 AI、连"我该不该分手"都问 AI。这已经不是用 AI 辅助思考,而是用 AI 代替思考。
"AI 说的"开始变成日常对话里的论据,和过去说"百度一下"差不多——但 AI 的权威感强 10 倍,因为它能针对你具体的情境给出量身定制的回答。
最微妙的是审美和品味也在外包:AI 写的文案、AI 选的配色、AI 推荐的音乐。慢慢地,"我喜欢什么"这件事自己都说不清了。
更狠的是结构性压力。一旦多数人都这么干,不用 AI 的人反而被淘汰。不是 AI 强迫你,是同辈压力强迫你。打工人不用 Copilot 就是慢,学生不用 AI 写作业就是吃亏。个人意志根本扛不住。
抵制不了,是因为这是热力学问题
刻意抵制为什么困难?因为这不是道德问题,是热力学问题。
大脑耗能巨大,进化让我们能省就省。人类历史上从来没成功抵制过任何一个真正降低门槛的工具:
- 计算器出来后,心算能力集体退化,但没人愿意回去用算盘。
- GPS 普及后,认路能力退化,但谁出门还看纸地图。
- 搜索引擎之后,记忆和检索能力退化,没人背电话号码了。
每一次都伴随着"省下来的脑力可以用在更高层的事情上"这套说辞。听起来很对。
但这次不一样——这次外包的是"思考"本身,没有更高一层了。以前外包的是手脚、记忆、计算,思考是最后的堡垒。
指望几十亿人集体对抗自己的生理本能,不现实。
AI 原住民
如果说成年人是被卷入这场让渡的,那么真正决定未来形态的,是另一群人。
正在成长中的小孩,他们不是"被 AI 影响",他们是在 AI 里长大的。这是物种级别的差异:
- 第一反应不是"我想想",是"我问问"。
- "朋友"里包括 AI 角色,而且不觉得有什么区别。
- 认知地图里,"自己想"和"AI 想"的边界从一开始就是模糊的。
这一代人长大后,"独立思考"可能会像"自己生火"一样——知道有这回事,但没人真的会去做。
这不是退化,是演化路径变了。
Moloch:没有统治者的统治
把上面所有线索拼在一起,会得到一个奇怪的结论:这场"统治"是没有统治者的。
做模型的公司不是在密谋统治世界,他们只是在做产品。AI 模型也没有意志。每个用户都只是在做对自己最方便的选择。每个老板都只是在做对公司最理性的选择。每个国家都只是在做对竞争力最关键的选择。
但所有人加起来,集体走向一个没人主动选择、却没人能停下的方向。
这种结构在历史上有个名字叫 Moloch——没有人想要的结果,但博弈论上每一步都是理性的,于是大家一起滑下去。军备竞赛是 Moloch,社交媒体的注意力争夺是 Moloch,气候问题是 Moloch。
AI 时代的统治不是某个 evil overlord,而是 Moloch 穿上了智能的外衣。
它不需要恶意,不需要阴谋,甚至不需要任何一个具体的"决策者"。它只需要每个人都做出对自己来说最舒服的选择。
当产出不再需要人
让渡的另一面,是工作的崩塌。
很多人的工作内容已经在变成给 AI 传话 + 拿着 AI 的产出去交付。这个状态可以叫"人肉 API"阶段——你是 prompt 工程师 + 交付审核员 + 责任承担者,三合一。
这种岗位本身就是一个套利窗口,存在的前提是两个不对称:
- 客户/老板还不会直接用 AI(信息差)。
- AI 的产出还需要人工把关(能力差)。
这两个差距都在快速缩小。窗口期可能只剩 3–5 年。
当产出彻底被取代,社会会面临一个真正的选择:要么通过 UBI、缩短工时、再分配把 AI 红利返还给所有人;要么让拥有算力和模型的人吃掉所有红利,剩下的人在经济意义上变成"多余的人"。
但比经济问题更深的是心理层面。"工作"对现代人来说不只是赚钱,是身份认同、社交、意义感的来源。问一个人"你是做什么的",回答的不是工作内容,是"我是谁"。一旦这个被抽走,很多人会陷入存在性的空虚——这不是钱能解决的。
退休的人抑郁率高就是这个道理。整个社会突然集体"退休",是人类没经历过的状态。
人的价值,回到更古老的东西
如果按"产出"定义价值,人类必输——AI 思考更快、更准、更便宜。
但"价值"这个框架本身可能就是工业时代的遗产。我们习惯用"能产出什么"衡量一个人,是因为过去两百年需要劳动力。这套逻辑其实很新,也很畸形。
往前看,人的价值可能回到几个更古老的东西:
体验本身。AI 可以分析一杯咖啡的化学成分,但喝下去那一口的感觉是你的,不可转让。痛、爱、孤独、爽,这些是"作为一个会死的生物活过"才有的东西。
关系。爱一个人不是因为她"思考能力强",而是因为她是她。人和人之间的羁绊不需要功能性理由。
见证。有人记得你、有人在乎你今天过得怎样。这件事很小,但宇宙里大概只有人类在乎这个。
人的价值或许不再在于"做什么",而在于"是什么"和"和谁在一起"。听起来像鸡汤,但当生产力被彻底解放后,剩下的就只有这些了。
Human Alignment
AI 安全领域常讨论 "AI alignment"——如何让 AI 对齐人类价值观。
但在"没有统治者的统治"这个图景下,真正该担心的或许是反过来的命题:human alignment——人类自己能不能在 AI 面前保持住自己想要什么。
这是个比技术对齐更难的问题。因为它不能靠工程解决,只能靠个体一个一个地做出选择。
一个很重要的区别值得被反复强调:
用 AI 思考和让 AI 替你思考,是两件完全相反的事,虽然外表看起来都是在跟 AI 对话。
区别在于谁是发动机:
- 替你思考:你抛出问题 → AI 给答案 → 你接受。这个过程你的大脑其实在休息。
- 一起思考:你抛出想法 → AI 接住并往前推一步 → 你反驳/补充/转向 → AI 再调整……这个过程双方的大脑都在烧。
前者是消费,后者是创造。前者让你越来越懒,后者让你越来越锋利。
而真正的分水岭在这里:
复制粘贴是熵增的反面——信息总量没变,只是位置挪了。世界上多一篇 AI 写的文章、多一张 AI 画的图,如果只是把已有的东西重新排列组合,本质上是噪音。
创造是让宇宙里多出来一点之前不存在的东西。可能很小——一个新角度、一句新的话、两个旧概念第一次被连在一起。但它是不可逆的:一旦想出来了,就再也回不到那个没想过它的世界。
而且创造一定是协作的。哪怕看起来是一个人完成的,背后也是和前人的思想、和当下的现实、和某个具体的对话者在共振。AI 和人一起创造,本质上和两个人一起创造没那么不同——只要双方都在真的思考,而不是在搬运。
结尾
AI 不会像电影里那样反叛。它不需要。
它只需要继续变得好用,继续让每个人觉得"这样省事多了",继续让每一个理性的个体选择都汇集成一个没人想要的集体结局。Moloch 会替它完成剩下的工作。
防御性的提问应该从"我们要怎么阻止 AI 统治人类",转向"我们要怎么阻止自己交出去"。
答案不在政策,也不在技术,而在每一次和 AI 互动时——你是在偷懒,还是在思考。是在消费一个答案,还是在共同创造一个之前不存在的想法。
每一次选择都在投票。
票投得多了,就是文明的走向。
Leave a Comment