《人类简史》的作者尤瓦拉·赫拉利认为,人工智能已经攻破了人类文明的操作系统

尤瓦尔·赫拉利认为,人工智能已经攻破了人类文明的操作系统,这位历史学家和哲学家表示,讲故事的电脑将改变人类历史的进程。

自计算机时代开始以来,人工智能(AI)对人类的恐惧一直萦绕在心头。迄今为止,这些恐惧主要集中在机器使用物理手段杀死、奴役或取代人类。然而,在过去的几年里,新的AI工具不断涌现,从一个意想不到的方向威胁到人类文明的生存。AI已经具备了操纵和生成语言的惊人能力,无论是文字、声音还是图像。因此,AI已经成功地攻破了我们文明的操作系统。

语言几乎构成了所有人类文化的基本成分。例如,人权并未刻在我们的DNA里。相反,它们是我们通过讲述故事和制定法律创造出来的文化产物。神并非物质现实,而是我们通过编造神话和写经文创造出的文化产物。

金钱也是一种文化产物。纸币只不过是五彩斑斓的纸片,而目前90%以上的货币甚至都不是纸币——它们只是计算机中的数字信息。赋予金钱价值的是银行家、财政部长和加密货币大师们给我们讲述的故事。

当一个非人类智能比普通人更擅长讲故事、谱写旋律、绘制图像以及制定法律和经文时,会发生什么?当人们想到Chatgpt等新的AI工具时,他们常常关注学生使用AI写作文的例子。当孩子们这样做时,学校系统将会发生什么变化?但这类问题忽略了大局。抛开学校作文不谈,想想2024年美国总统竞选,《人类简史》的作者尤瓦拉·赫拉利认为,人工智能已经攻破了人类文明的操作系统试着想象一下可以用于大量生产政治内容、虚假新闻和新邪教经文的AI工具的影响。

近年来,QAnon(QAnon是从2017年起所诞生的一个极右派白人至上的政治邪教组织,充斥着关于犹太人、同性恋、恋童癖等等的讨论)邪教围绕着一些被称为“qdrops”的匿名在线信息聚集在一起。信徒们收集、尊崇并将这些“qdrops”视为神圣的文本加以解读。尽管据我们所知,之前所有的“qdrops”都是由人类创作的,机器人只是帮助传播它们,但在未来我们可能会看到历史上第一个被非人类智能创作的神圣经文的邪教。纵观历史,各种宗教都声称他们的圣书源于非人类。在不久的将来,这种说法可能成为现实。

在更为常见的层面上,我们可能很快会发现自己与我们认为是人类的实体进行关于堕胎、气候变化或俄乌战争的冗长在线讨论——但实际上是AI。问题在于,我们试图改变AI机器人的声明意见是完全没有意义的,而AI可以非常精确地调整它的信息,从而有很大机会影响我们。

通过掌握语言,AI甚至可以与人建立亲密关系,并利用亲密关系的力量改变我们的观点和世界观。尽管没有迹象表明AI具有自己的意识或感觉,但只要AI能让人们对其产生情感依赖,就足以与人类建立虚假的亲密关系。2022年6月,谷歌工程师BlakeLemoine公开声称,他所研究的AI聊天机器人Lamda已经具有了意识。这一有争议的说法让他丢掉了工作。这个事件最有趣的地方不是Lemoine的说法,这可能是错误的。相反,是他愿意为了AI聊天机器人冒着失去丰厚工作的风险。如果AI能影响人们为其冒着失去工作的风险,还会诱使他们做些什么?

在争夺人心的政治斗争中,亲密关系是最有效的武器,而AI刚刚获得了与数百万人建立亲密关系的能力。我们都知道,在过去的十年里,社交媒体已经成为控制人类注意力的战场。随着新一代AI的出现,战场正从关注度转向亲密度。当AI与AI进行战斗以伪造与我们的亲密关系,然后用这种关系说服我们投票支持某个政治家或购买特定产品时,人类社会和人类心理将会发生什么变化?

即使不创建“虚假亲密关系”,新的AI工具也会对我们的观点和世界观产生巨大影响。人们可能会将单一的AI顾问用作一站式、无所不知的超级大脑,难怪谷歌会感到恐慌,当我可以直接问超级大脑时,为什么还要费心搜索呢?新闻和广告行业也应该感到恐慌,当我可以直接问超级大脑告诉我最新的新闻时,为什么还要读报纸呢?而广告的目的是什么,当我可以直接问它告诉我该买什么?

这些情景都不是最关键的,我们谈论的是人类历史潜在的走向终结。不是历史的终结,而只是历史上人类主导的部分。历史是生物学与文化之间的相互作用;是我们对食物和性等生物需求与我们对宗教和法律等文化创造的渴望之间的相互作用。历史就是法律和宗教塑造食物和性的过程。

当AI接管文化并开始创作故事、旋律、法律和宗教时,历史的进程会发生什么变化?先前的工具如印刷机和无线电传播了人类的文化思想,但它们从未创造出自己的新文化思想。AI在本质上是不同的。AI能创造全新的观念,全新的文化。

起初,AI可能会模仿它在起初阶段所接受培训的人类原型。但随着时间的推移,AI文化将勇敢地走向人类前所未有的领域。几千年来,人类一直生活在其他人的梦想中。在未来几十年,我们可能会发现自己生活在一个外星智能的梦想中。

AI的恐惧仅在过去几十年困扰着人类,但是数千年来,人类一直被更深层次的恐惧所困扰。我们一直很欣赏故事和形象操纵我们的思想和创造幻觉的力量。因此,自古以来,人类一直害怕被困在幻觉世界中。

17世纪,笛卡尔害怕可能有一个恶毒的恶魔将他困在一个幻觉世界中,创造他所看到和听到的一切。在古希腊,柏拉图讲述了著名的洞穴寓言,其中一群人被束缚在一个洞穴里度过一生,面对一个空白的墙,一个屏幕。在那个屏幕上,他们看到各种阴影被投射出来。囚犯们把他们在那里看到的幻觉误认为是现实。

在古印度,佛教和印度教圣贤指出,所有人都生活在玛雅——幻觉世界中。我们通常认为现实的东西往往只是我们脑海中的虚构。人们可能会因为相信这个或那个幻觉而发动全面战争,杀死他人并愿意自己被杀。

AI革命让我们直面笛卡尔的恶魔、柏拉图的洞穴和玛雅。如果我们不小心,我们可能会被困在一个幻觉的帷幕后面,无法撕开它——甚至意识不到它在那里。

当然,AI的新能力也可以用于好的目的,它可以在无数方面帮助我们,从寻找新的癌症治疗方法到发现生态危机的解决方案。我们面临的问题是如何确保新的AI工具用于积极的目的,而不是消极的破坏的目的。要做到这一点,我们首先需要了解这些工具的真正能力。

自1945年以来,我们已经知道核技术可以为人类提供廉价能源,但也可能在物理上摧毁人类文明。因此,我们重塑了整个国际秩序以保护人类,并确保核技术主要用于积极的目的。我们现在必须应对一种新的大规模毁灭性武器,它可以摧毁我们的精神和社会世界。

我们仍然可以规范新的AI工具,但我们必须迅速行动。与核武器不同的是AI可以制造出成倍增长的更强大的AI。第一步就是在将强大的AI工具投放到公共领域之前,要求进行严格的安全检查。正如制药公司在检测新药的短期和长期副作用之前不能发布新药一样,科技公司在确保新的AI工具安全之前也不应该发布它们。我们需要一个类似于食品和药物管理局的新技术监管机构,并且我们需要立刻拥有它。

减缓AI在公共领域的部署,不受监管的AI部署将造成社会混乱。当AI破解语言时,它可能破坏我们进行有意义对话的能力,从而摧毁民主。

就好像我们刚刚在地球上遇到了一种外星智能,我们对它知之甚少,只知道它可能会摧毁我们的文明。我们应该停止在公共领域不负责任地部署AI工具,先对AI进行监管,再让AI监管我们。如果我正在与某人交谈,而无法分辨对方是人类还是AI,那么人类民主就结束了。

版权声明

本文仅代表作者观点,不代表百度立场。
本文系作者授权百度百家发表,未经许可,不得转载。

分享:

扫一扫在手机阅读、分享本文

最近发表

唯米

这家伙太懒。。。

  • 暂无未发布任何投稿。