由于公开表达对AI技术的担忧,Tristan经常被错误地当成悲观论者,但如Tristan本人所言,这一切正是来自最深层的乐观:充分意识到问题有多糟、比多数人想象的更糟,但仍然每天起床努力让情况不一样,变得更好。
两年前不存在但现在成立的一点是,人们常质问批评社交媒体的人:“既然你那么在意,为什么不自己做一个替代平台?”过去确实有很多人试图做,——但这些尝试几乎都失败了,原因有两点。一是梅特卡夫效应(网络效应):大家都在现有平台上,很难把用户从那里迁移走。二是融资问题:如果你要长期运营另一个社交产品,通常需要风险投资,这就要求给投资者特定回报,从而产生Eric Weinstein所说的“嵌入式增长义务”——需要无限增长,进而引入有毒的商业模式,必须最大化参与度,服从那些扭曲的激励以实现投资回报。
现在不同的是:你可以用代码快速搭建一个完整的社交网络,使用像Claude这样的工具,运行成本低到每用户每年不到一美元。这很惊人——意味着你不必靠风投就能建立一个不以参与度为导向的健康社交网络。你需要做的是组织一次大规模迁移——比如“一键导出我的数据并迁移”的功能(这类功能应该被立法保障,就像换手机时能一键转移电话号码一样)。有了这样的工具,人们可以集体迁往一个没有有害激励驱动的健康网络。
所以到2026年,实际上有更多机会把现有社交媒体的有毒商业模式,转变为完全不同、不会被那些激励所驱动的模式。人们开始觉醒,认识到把我们带到现在这种状况的糟糕激励机制,随后自主组织、用代码去实现替代方案。有人在用AI来“vibe code”治理解决办法;有人用AI审查旧的城市法规,找出不再相关的条款,指出哪些需要剥离、废除,以及如何用新的方式重新体现这些法律的精神。这样一来,AI不是递归自我强化,而是增强我们自我改进的治理能力。
这些例子说明我们完全可以用另一种方式来处理这一切、以不同的方式应用这项技术,但必须把当前的激励机制如何导向反人类的未来讲得非常清楚,以激励每个人做出更好的选择
Tristan 认为,如果有一个项目能促成某种关于如何前进的共识—比如把主要负责人召集到一次会议上,那将很有意义,比如特朗普和习近平将在5月14、15日会面。如果人类要对此有所作为,就应该把这类议题提上日程。
关于美中关系这一点:我们都知道两国历来在表面上声称以善意合作,实则常在背后相互违约、互相伤害。这种情况确实存在。2014年,据说习近平曾与奥巴马签署过不进行网络攻击的协议,但随后就发生了大规模的OPM泄露之类事件。因此完全可以理解两国互不信任的理由,在推动国际合作时必须为最坏情形保留例外和应对预案。
不过一个积极的方面在于——在2024年,前任总统白的与习近平最后一次会面时,临时加入了一项议题,而且是由习近平个人请求加入的:两国同意将AI排除在核指挥控制系统之外。这说明存在一个可行的先例:在某些明确影响人类存亡的狭窄领域,我们或许能够达成协议;尽管我们可能无法通过法律完全阻止自主武器的发展(因为这条路已经走得很远),但至少在明确的生存风险领域已有合作的可能性。
有人曾说,只有外星文明攻击才能让全人类同时解决这些协调问题,但现在我们在自己建造那个“外星人”。这有点像一颗会摧毁地球的小行星——具有讽刺意味的是,我们自己在创造它。设想如果地球上每个人都决定不让这颗小行星存在并都把手从键盘上拿开——原则上小行星就会消失。不是说这会发生,但这个比喻说明问题:你可能看不到完整的路径,但如果你认定一切不可避免并因此助长这种不可避免性,你就永远找不到其他道路。唯一的办法是把自己定位为相信存在另一条道路并真诚寻找那条路的人,用全部诚意去寻求解决方案。
Tristan和成千上万名真正希望AI发展向好的从业者,每天都在从这个立场出发做出努力,并邀请世界其他人一起寻找那条可供转向的替代道路——Tristan坚信如果我们真诚且坚定地想要找到别的道路,我们就能把方向盘扭向别处。