而这只是AI 技术发展的初期,如果AI deepfake技术进一步完善,它的终点是什么?我们可以做以下的推测: AI伪造技术越来越完善,以至于未来将完全无法分清现实和伪造视频的界限,因此我们看到任何视频,都将默认它是AI伪造的视频。但这一定是一件坏事吗?
在雅典的传统中,有一个非常重要的原则,甚至在人们眼中比民主原则更加重要,这个原则被称为Isegoria,很有意思的一点是,如果你问AI什么是Isegoria,AI给出的答案都是错的,它们会说Isegoria就是言论自由,但这不是雅典人的本意,Isegoria的本意是指我们每个人都有权让自己的观点按其自身价值被评判,不关你是谁,你的身份是什么,也无关你的口才或修辞的华饰。也许,AI技术在未来的飞速进展将迫使人们重新恢复这一失传已久的艺术。
但是,话又说回来,这样的想法固然很美好,但这似乎和人际关系的本质相矛盾,因为人与人的交往中,信任是基础,我们也需要相信别人,若是这世上的每一句话都要拿着放大镜去,用“第一行原则”去拆解、逐条验证,这样的生活岂非太累?
况且,就我们对人性的了解而言,如果我们失去这种最基本的信任,也许更可能的情况是我们中的大多数也许并不会用复杂且怀疑的眼光审视一切,而是倒退回去一种类似于中世纪的情况,大多数人无法获得高质量的真实信息,不知道什么是真、什么是假,因此都沉浸在完全不真实的信念和信息中。
在这样的一种社会中,高质量信息本身成为了一种奢侈品,只有那些能通过订阅可信媒体等方式付费的人才可能知道世界真实发生了什么,而大多数人则会相信各种荒诞的东西。
这种反乌托邦式的未来虽然很可能发生,但并非不可避免。之前关于Isegoria的设想之所以难以成立,是因为竞争的起点并不公平,证无难于证有,证明你没有说过什么要难于证明你说过什么。一方是时间精力都很有限的普通人,一方是Elon Musk, Jeff Bezos这样掌握着平台算法和几乎无限的资源的科技巨头。
Yanis之前写过一本名为技术封建主义的书,书中认为我们正滑向技术封建主义的社会,现在看来,我们甚至失去了最基本的对于身份的所有权,也就算对于我们基本影像和声音的所有权
这也引向了一个更为深远的问题,民主原则本身在当今还适用吗?现实是如此多的人如此轻易地就能被欺骗和操纵,而欺骗别人的成本是如此之低,这不禁让人怀疑,民主制度是否还能在未来生存下来。
其实,作为一个物种,人类辨别真伪的能力是有限的,而在Yanis看来,18世纪以来西方建立的这种制度严格来说也不能被称为民主制度而是一种寡头制度,很多制度其实是为了了阻止民众的政治参与而设立的。而Isegoria的重要性也就在这里,因为如果人们真能做到的基于事物本身形成自己的论断,而不是去相信某个名人或偶像,那么真正的民主反而有机会复兴。
至于应该如何去抵制这种技术封建主义,有些人对现状很悲观,认为这一切会不可避免地走向毁灭,但回顾历史,可以发现,在并不遥远的过去,君权神授被视为理所当然,如今大型科技公司能够摆布我们的思想、控制我们的讨论也被视作理所当然,但事实上算法是人设计的,facebook发现制造冲突和对立能让用户滞留时间更久,平台的广告收益也就更多,因此设计了这种算法,但Yanis相信数字民主,因为他还记得互联网早期的那种协作创造的氛围,现状如此不代表必然如此,而我们需要像抗争法西斯主义一样抗争技术封建主义。
@Proton 很尴尬,如果不得不依靠ai来辨识、应对、处理ai造假,是不是类似“靠制造问题的人解决问题”?
是的,抛开ai自主意识不谈,现实和趋势中ai的强势滥用,根本仍在于“人”,这可能成为国家竞争、意识形态斗争、利益争夺中不择手段的新方式。
墙外很多媒体、平台有“事实核查”的甄别方式,但这真能具备超意识形态、国家利益、团体癖好的特质吗?否则,又将沦为新的霸权垄断、特权禁脔。
说到底,仍是民主体制的韧性问题,即能否经受诱惑、抵御挑战。