军备竞赛的魔力如此之大,一旦开始就很难停下来,但是Tristan认为,即便赢了这场竞赛的人,最后也会成为输家。这其实有先例可循:美国赢得了社交媒体军备竞赛,但这场胜利到底给美国带来了什么?
注意力持续时间缩短、短时视频盛行、内容愈发极端和惊世骇俗、共同的现实认知基础被破坏、年轻人的性商品化、政治的极端化、广泛的焦虑、抑郁、共同的现实认知基础被破坏等等,这些东西带给美国社会的是好处还是坏处?
Tristan认为,这里有一种心理上的混乱:在美国和中国的AI之争中,没有人会赢得这场竞赛,AI 本身才会赢。
尤瓦尔·诺亚·赫拉利(Yuval Noah Harari)给出过这样的比喻:后罗马时代的不列颠人,由于自身实力衰弱,去雇佣了一群强悍的雇佣兵——撒克逊人——以战胜北方的部族,结果他们自身却被盎格鲁-撒克逊王国取而代之。在这个比喻里,AI 是撒克逊人,取代我们的则是 AI 帝国。如今很多有权势的人认定AI时代的到来不可避免,他们建设地下堡垒。指望末日到来的时候,躲在掩体里面,依靠雇佣的海军特种部队保护自己——他们认为能控制这些部队,直到世界末日,这是很天真的。
关键在于:驱动这一切的是军备竞赛的吸引力和一种错误的幻想——我们(美国)必须击败中国——而我们却不去审视我们到底在争夺什么。我们正在争夺一个我们不懂得如何控制、且没有走上可控轨道的东西。
有时候,你会看到像埃·隆马斯克那样的人在公开场合说——我决定我宁愿活着看到它,也不愿不在场。
这有点像一种Death wish:‘我无法阻止它,所以我决定宁愿在场,去建造它,让我建成的上帝成为接管一切的那个东西。
而这实际上引出了一个的根本问题:AI 的博弈论与核武博弈论不同之处在于,核武博弈论里的“共同毁灭”情形意味着,没有人希望消灭地球上的所有生命,我不需要与你交谈就知道你也不想,这就带来了一定程度的可信性——我们可以协调以避免那种结果。
但 AI 的问题在于:如果我一开始就相信它是不可避免、无人能阻止的,那么如果我是制造“自杀机器”的人,我就不算是邪恶的,因为我只是在做一件本来无论如何都会发生的事——这给了我一个伦理上的出路。
设想一下, DeepSeek 的 CEO、埃隆·马斯克和山姆·奥特曼都相信这项技术可能灭绝人类,但如果是自己率先到达并获胜,结果就是人类被消灭了,但是统治世界的 AI 说的是中文而不是英语,或带有 DeepSeek CEO 的“DNA”而不是埃隆的“DNA”。世界的终结会带有你的标志——确切地说,是带有你的 DNA 或你的 logo。
有人可能会想,当关键时刻来临时,冷静的人会占上风,顶层的精英会采取必要措施及时转向。但是你不能信任这一点,因为这些人潜意识里已经在某种程度上预接受了这种世界终结及自身终结的可能性——他们在心里想象如果自己能成为造出那个替代人类的“数字神”的人,于某种意义上会获得永恒的遗产。这种心理会促使他们在关键时刻去铤而走险。
如果想避免这一点,就需要激发地球上其他八十亿人去反对这种结局。我们不要那样的结局。如果你想让你的孩子活着,如果你在乎现有的世界,爱着生命中神圣的事物并与之相连,那么这一小撮人为了竞速走向消极结果而带来的风险,正威胁着你所珍视的一切。