最近听了Sam Harris 对 Tristan Harris的一期关于AI的采访,这期采访很有价值,所以这几天一直在整理里面的内容 youtube.com/watch?v=90irsXaKxZ

Tristan Harris曾经是谷歌工程师,在了解行业内幕后选择成为一名whistle blower,揭露社交媒体和科技公司用于让用户上瘾的心理基础和操控技巧,他在2020年推出的Netflix纪录片《智能社會:進退兩難》(英語:_The Social Dilemma_)引发了广泛的讨论。他同时也是Center for Humane Technology(人道科技中心)的联合创始人。最近他参与制作了一部新纪录片,叫做[The AI Doc: Or How I Became an Apocaloptimist (2026) IMDb](imdb.com/title/tt39150120/) 展示了人们AI的前景的看法,AI带来的一些令人担忧的趋势,以及值得乐观的积极面

在Tristan看来,当前人们对AI存在一种根本的误解,即未来是不确定的,你无法知道科技会怎样发展,因此与其担心科技的后果,不如尽可能加速其发展。

但事实并非如此,技术的应用,并非是某种“自上而来、无可改变”的力量,而是背后有真实的人在做选择和决策。社会朝什么样的方向发展,很大程度上取决于这些选择和决策背后的incentives(激励机制)是什么样的。

查理·芒格(沃伦·巴菲特的商业伙伴)有句名言,_if you show me the incentives, I'll show you the outcome._(“如果你把激励机制展示给我,我就能告诉你结果。”)

以社交媒体为例,社交媒体的激励机制是什么?

社交媒体的激励机制是争夺注意力和提高参与度。

而注意力持续时间缩短、短时视频盛行、内容愈发极端和惊世骇俗、年轻人的性商品化、政治的极端化,等等,便是这一套激励机制的逻辑产物,这一切在现实中都发生了。Tristan Harris 本人在社交媒体快速兴起的热潮(大约 2012、2013 年)期间就在谷歌任职,他是这一切的亲历者,他当时目睹的种种趋势也确实一一变成了现实。

因此,当你了解背后的激励机制后,或许无法预测每一个具体细节,但从整体方向上你可以看出事态的发展轮廓。

问题在于,我们沉迷并被新技术的“可能性”所诱惑,却不去审视激励机制和可能发生的后果。社交媒体的“可能性”看起来是好的——让每个人随时获取信息、与朋友连接,能产生有史以来最不孤独的一代、最开明的信息社会。但现实却完全相反。社交媒体系统并未以减少孤独或创造最有见识的社会为优化目标;它优化的是如何呈现下一个完美的帖子、视频或推文以让你不断刷屏——午夜孤独时无休止的“刷屏”。这就是我们今天所处世界的成因。

在Tristan看来 ,社交媒体就像一只“婴儿型 AI”,社交媒体对当代社会的影响,就好比是AI主导的社会的一种预演:如广泛的焦虑、抑郁;共同的现实认知基础被破坏(所谓的后真相时代)、政治的两极化;等等,这些在趋势在社交媒体时代已然明显,而AI则近一步加速了这个进程。

Tristan认为,面对 AI,我们有两种选择——一种是经历类似切尔诺贝利那样的灾难性事件,迫使我们被动收紧并改变;另一种是以足够清醒的智慧、辨识力和远见,预先看清趋势并主动建立防护措施,避免灾难发生。

当然,这部影片并非是单方向的,而是展现了两种不同的观点。一种是非常担忧、悲观的观点;另一种则是非常乐观的论调,认为对AI的恐惧是不理性的。

首先是偏悲观的观点,Tristan认为,有一种很不好的做法就是给担忧AI技术的人贴标签,称其为“AI末日论者”(Doomers),因为它把一种不太健康的标签固化了,比如,关心核电站风险的人并不是“末世论者”,而是关心核电站安全、不希望发生熔毁事故的安全专家。

很多时候,关于AI好坏的讨论其实非常地抽象,我们总是再说,AI对人类未来如何如何,但这部影片的设定是,导演要生孩子了。所以他问了所有在AI行业工作的这些人:现在是生孩子的好时机吗? 这其实把关于我们正走向何种未来的问题具象化了。因为抽象地讨论并不能打动人心。把话题放到我和我的孩子身上,这让关于人工智能的讨论有了落脚点——围绕人们最关心的事情,即他们的家庭。

在收到很多悲观的答案,被各种担忧冲击后,导演转而去访谈那些人工智能乐观主义者。片中有人物如Peter Diamandis, Guillaume Verdon等被称为科技加速主义者的人,他们认为我们最大的风险是进展不够快:想想那些因病无法治愈的患者,如果我们不让 AI 更快发展,就无法拯救这些生命。

对于科技加速主义者,Tristan的看法是,AI的好处和坏处存在一种不对称性:好处并不能避免坏处。坏处可能会破坏能够支撑这些好处的世界。

例如,再好的抗癌药也不能阻止一种被设计用来毁灭人类的新型生物病原体;而能毁灭人类的病原体又会摧毁一个让抗癌药有意义的世界。人工智能带来 10% 或 15% 的 GDP 增长——因为它在自动化所有科学、所有技术发展、所有军事发展,带来物质充足——听起来很棒。但如果同样的人工智能也能产生足以瘫痪整个金融系统的网络武器,那哪件事更重要?是那 15% 的 GDP 增长,还是那个可能连货币和 GDP 基础都被破坏的东西?

这点非常重要,可是影片并没有真正提出这一点,这是Tristan感到比较遗憾的地方。

这里我联想到了《商君列传》中商鞅和反对变法的大臣的辩论,其中杜挚有这样一句话:

利不百,不变法;功不十,不易器。法古无过,循礼无邪。

如果没有百倍的利益,不要改变法度;如果没有十倍的功效,不要更换使用的工具。

这句话在国内的教育中经常被当成因袭守旧的反面典型,但是我认为这句话才代表真正的智慧。因为商鞅变法式的进步对任何人都没有好处,变法使普通人沦为国家的工具,国家本身成为一个监狱,即便貌似从中变法中获益的君主和商鞅本人,在长期来看也自食其果,这种毁灭社会底线的社会工程学没有赢家。而杜挚这句话背后的原则,反而是一个理性的社会应有的自我防卫机制。一个在技术,经济,力量上相对落后,但能够理智,审慎地调节选择自身发展路线和速度的社会,比一个看上去很先进强大,但无法控制自身方向,仿佛被一只脱缰的野马拽着奔跑的社会,更能实现长治久安。

Follow

Tristan也谈到了一个现象,很多AI从业者在刻意回避AI的风险和问题,或者原本对AI持有警惕态度的人,却转变了立场,比如比如山姆·奥特曼和埃隆·马斯克,他们起初和任何人一样同样担忧。山姆·奥特曼曾说:“这项人工智能可能会导致世界终结,但在此期间会催生一些伟大的公司。”埃隆也曾把AI比作“召唤恶魔”。但是他们现在真是这场军备竞赛的主要参与者。导致这些人转变的心理动机是什么?

Tristan认为,其中一种心理动机是“大格局”思维,即认为长期来看,AI会带来极大的好处,而在其过程中出现的动乱,失业,破坏,则是“发展的阵痛”,是通向进步的“必要代价”

> 他们把注意力放在长期上:好像在度过这段基本的可怕混乱——或许还有革命——之后,会有另一个一面,那将是人类历史上最富足的时期。这类人常常指出全球GDP 的那张图:在他们看来,1945 年那会儿你几乎只能看到一个小小的下跌,然后很快又直线上升。他们就是这种心态。

这种抽象化的思维方式,一部分来自于科幻小说,很多这些科技从业者在成长过程中是主要靠读科幻小说来形成自己的世界观的。而这会造就一类伦理权重非常怪异的人。文化中最好的部分还没有进入他们的头脑,使得他们无法真正理解人的生活为何有价值。这些人对我们是否被毁灭、被新的机器粉碎,而我们的后代变成可能有也可能没有意识的机器人这件事持不可知态度,甚至认为那不一定是坏事。

例如,罗斯·达索在《纽约时报》问彼得·蒂尔(Peter Thiel)“人类物种是否应当继续存在?”时,彼得·蒂尔结巴了 17 秒

再比如,山姆·奥特曼最近在印度的 AI 安全峰会上被问到:“运行这些数据中心需要消耗这么多能源,你怎么看?”他回答说:“你说的对,但培养一个人成长 20 年也需要大量能源和资源。

再比如,埃隆·马斯克不止一次表示怀疑我们是否处在一个模拟中,怀疑其他人是不是 NPC。而这种把地球上的其他人称为 NPC(非玩家角色)本身,就是一种对人的贬低

(如果是国内,我觉得最好的例子可能是三体读者,这些人可能觉得让数亿人从地球消失就像”二向箔“和”降维打击“一样”好玩“)

另一种动机则是厄普顿·辛克莱(Upton Sinclair)描述的心理,你无法让一个人的薪水依赖于“不去看见”这件事的人去质疑它。如果你的商业模式是卖乐观、卖希望、宣称一切都会很好,那么你就注定无法谈论风险。这种鼓励不诚实言论的激励机制是世界问题的根源

此外,一种更重要的动机是“如果我不先做就会被支配“的恐惧,即军备竞赛思维,AI 公司窃取知识产权却无视诉讼,是军备竞赛思维的表现。 AI 引发精神病态和青少年自杀,也是军备竞赛的表现。这是在争相攻破人类的依恋机制,让人们对 AI 产生依赖并分享最深的秘密。当出现大规模失业时,AI公司的想法就是“如果我不去做并去颠覆所有工作,我就会输给会这么做的人”,乃至国家之间的AI竞赛,背后都是军备竞赛思维

Tristan认为,人工智能时代我们实际上是在与博弈论进行对峙——人类面临的问题是:囚徒困境是否要成为我们做出选择时的唯一模型。

@Proton 树欲静而风不止,尤其在体制竞争背景下,从全球化贸易、原子弹、国际法到星际空间的“限制”,都已经或将被突破,这趋势,也轮到ai了。

Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.