010-3亿字长文:什么是人工智能?

2024-10-30 03:49:28 | 作者: 匿名

网络恶搞、谩骂以及其他重要的、改变世界的分歧……

人工智能既性感又酷。它正在加剧不平等,颠覆就业市场并破坏教育系统。人工智能就像主题公园游乐设施或魔术。它是我们的终极发明,也是道德责任的体现。人工智能是这十年的流行词,也是一个可以追溯到1955 年的营销术语。人工智能是人形的,但也像来自外星球的访客;它非常聪明,但也非常愚蠢。人工智能的繁荣将推动经济发展,其泡沫似乎即将破裂。人工智能将增加丰富性,使人类能够在宇宙中实现最大程度的繁荣,但也预示着我们的灭亡。

大家都在谈论什么?

人工智能是我们这个时代最热门的技术。但它到底是什么?这听起来可能是一个愚蠢的问题,但它从未如此紧迫。简而言之,人工智能是一组技术的总称,这些技术使计算机能够完成人类执行时需要智能的任务。想想面部识别、语音理解、驾驶汽车、写句子、回答问题、创建图像等。但即使这个定义也包含多种含义。

这正是问题所在。让机器“理解”语音或“写出”句子意味着什么?我们可以要求这些机器执行哪些任务?我们应该对他们的执行能力给予多少信任?

随着这项技术从原型迅速发展到产品,这些问题已提上我们所有人的议程。但是(剧透警告!)我没有答案。甚至不可能准确地告诉你人工智能是什么。制作它的人也并不真正知道。旧金山人类人工智能实验室首席科学家克里斯·奥拉(Chris Olah) 表示:“这些都是重要的问题,每个人都觉得自己可以发表意见。” “与此同时,我认为你可以对此进行争论,但目前没有证据表明这一点。”反驳你。”

但如果你愿意坐下来加入这一发现之旅,我可以告诉你为什么没有人真正知道,为什么每个人似乎都同意某件事,以及为什么你应该关心。

让我们从一个不经意的笑话开始吧……

时间回到2022 年,《麻省理工科技评论》的首集播出到一半,这个略显平淡的播客由脾气暴躁的联合主持人亚历克斯·汉纳(Alex Hanna) 和艾米丽·本德(Emily Bender) 主持,他们从不厌倦用“最锋利的针”刺伤世界,其中包括一些最被吹捧的神圣事物在硅谷,他们提出了一个荒谬的建议。他们正在大声朗读Google 工程副总裁Blaise Agera y Arcas 发表的一篇12,500 字的Medium 文章,标题为《神秘 AI 炒作剧场 3000》。阿奎拉·阿卡斯认为,人工智能可以像人类一样理解道德价值观等概念,这表明机器可能能够被教导如何行为。

然而,汉娜和本德并不买账。他们决定将“AI”一词替换为“数学魔法”——是一个庞大而复杂的数学运算。

这种不敬的表达旨在刺穿他们认为引文中存在的夸张和拟人论。很快,分布式人工智能研究所的研究主任兼社会学家汉纳(Hanna)和华盛顿大学的计算语言学家本德(因批评科技行业的夸大其词而在网络上享有盛誉)来到了Agera y Arcas。所传达的信息与选择听到的信息之间出现了鸿沟。

阿奎拉·阿卡斯(Agera y Arcas) 问道:“人工智能、其创造者和用户应如何承担道德责任?”

本德反问道:“数学魔法应该如何承担道德责任?”

“这里存在分类错误,”她指出。汉纳和本德不仅反对阿奎拉·伊·阿卡斯的论点,他们还认为这毫无意义。 “我们能不能停止使用‘人工智能’或‘人工智能’这样的表达方式,就好像它们是世界上的个体一样?”本德说道。

听起来好像他们正在讨论完全不同的事情,但事实并非如此。双方讨论了当前人工智能热潮背后的技术————大规模语言模型。只是讨论人工智能的方式比以往任何时候都更加两极分化。那年5 月,在预览公司旗舰模型GPT-4 的最新更新时,OpenAI 首席执行官Sam Altman 在Twitter 上写道:“对我来说,这感觉就像魔法一样。”

从数学到魔法还有很长的路要走。

人工智能的信徒们对这项技术当前的力量和未来不可避免的进步有着信仰般的信念。他们声称通用人工智能即将到来,超级智能也不甘落后。同时,也有异见人士对此嗤之以鼻,认为这全是神秘的废话。

这种流行的话题性叙事受到了一系列大人物的影响,从桑达尔·皮查伊和萨蒂亚·纳德拉等大型科技首席营销官,到埃隆·马斯克和奥特曼等行业边缘人物,再到杰弗里·辛顿等明星计算机科学家。有时这些倡导者和悲观者是同一个人,告诉我们这项技术好得惊人。

总之,人工智能已经成为大家眼中无所不能的存在,将领域划分为粉丝群体。不同阵营之间的沟通往往显得不一致,而且并不总是真诚的。

也许你觉得这一切都很愚蠢或烦人。但考虑到这些技术的力量和复杂性——它们已经被用来确定我们支付的保险费用、我们如何检索信息、我们如何工作等等——我们没有时间等待至少就我们的内容达成一致。正在谈论。

这些问题涉及我们所谓的“人工智能”概念的核心,并且已经争论了几十年。但随着大规模语言模型的兴起,这些模型可以以令人恐惧或令人着迷的现实主义方式模仿我们说话和写作的方式,围绕人工智能的讨论变得更加尖酸刻薄。

我们已经制造出了具有类人行为的机器,但我们还没有摆脱想象机器背后有类人思维的习惯。这导致了对人工智能能力的高估;它将本能反应固化为教条立场,并加剧了技术乐观主义者和怀疑论者之间更广泛的文化战争。

除了这种不确定性之外,还有许多文化包袱,从我打赌许多业内人士在成长过程中接触过的科幻小说,到塑造我们对未来的看法的更有害的意识形态。鉴于这种令人兴奋的混合,关于人工智能的争论不再只是学术性的(也许从来都不是)。人工智能点燃激情,让成年人互相指责。

马库斯说:“目前这场辩论在智力上并不健康。”多年来,马库斯一直在指出深度学习的陷阱和局限性,这项技术将人工智能推向主流,并支撑着从大型语言模型到图像识别到自动驾驶汽车的一切。在他2001 年出版的书《机器能学会如何表现吗?》 中,他认为深度学习背后的神经网络无法独立推理。 (我们暂时跳过这个,但稍后我会回到句子中“推理”等词的重要性。)

马库斯表示,他曾试图与Hinton 就大型语言模型的实际功能进行适当的辩论,Hinton 去年公开表达了对他帮助发明的技术的生存恐惧。 “他就是不会这么做,”马库斯说。 “他骂我是傻瓜。” (我过去与Hinton 谈论Marcus 时可以证明这一点。“ChatGPT 显然比他更了解神经网络,”Hinton 去年告诉我。”)Marcus 在他写的一篇名为:010 的文章后也引起了不满30000。 Altman 在Twitter 上回应:“给我一个平庸的深度学习怀疑论者的信心。”

与此同时,敲响警钟给了马库斯一个个人品牌,并邀请他与奥特曼坐在一起,在美国参议院人工智能监督委员会作证。

这正是为什么所有这些论点都比普通的在线恶意行为更重要的原因。当然,其中涉及巨大的自负和巨额资金。但更重要的是,随着行业领袖和固执己见的科学家被国家元首和立法者召集来解释这项技术是什么以及它能做什么(以及我们应该多么害怕),这些争议变得更加重要。当这项技术嵌入到我们每天使用的软件中时,从搜索引擎到文字处理应用程序再到手机上的助手,人工智能并不会消失。但如果我们不知道自己买的是什么,谁会被骗呢?

Stephen Cave 和Kanta Dihal 在2023 年合集《代数思维》 中写道:“很难想象历史上有任何其他技术引发了这样的争论—— 关于它是无处不在还是根本不存在的争论。事实是存在这样一场关于人工智能的争论证明了它的神话本质。”

最重要的是,人工智能是一种想法、一种理想,它既受到数学和计算机科学的影响,也受到科幻小说的世界观和元素的影响。当我们谈论人工智能时,弄清楚我们在谈论什么将会澄清很多事情。我们可能不会在这些事情上达成一致,但就人工智能的本质达成一致至少是讨论人工智能应该是什么的一个良好的开端。

那么,大家都在为了什么而奋斗呢?

2022 年末,OpenAI 发布ChatGPT 后不久,一个新的表情包开始在网上流传,它比任何其他方式都更好地捕捉到了这项技术的奇怪之处。在大多数版本中,一个名为“shoggoth”的洛夫克拉夫特式怪物被显示为—— 个触手和—— 个眼球举着一个温和的笑脸表情符号,仿佛要隐藏其真实本性。 ChatGPT 的对话措辞表现出一种像人类一样的平易近人,但在友好的表面之下却隐藏着难以理解的复杂性甚至恐怖。 (正如H.P. 洛夫克拉夫特在他1936 年的中篇小说《深度学习正遭遇瓶颈》 中所写:“这是一件难以形容的可怕事情,比任何地铁列车都大。—— 一种无定形的原生质气泡。聚合物。”)

这些争论的核心是这样一个观点:人工智能不仅仅是一个技术问题;它也是一个技术问题。它涉及我们对自己的认知、创造力、道德责任、甚至对未来的希望和恐惧的基本理解。一方面看到人工智能带来的无限潜力,是人类智慧的延伸,是解决复杂问题、提高生活质量的工具;另一方面看到人工智能带来的无限潜力,是人类智慧的延伸,是解决复杂问题、提高生活质量的工具;另一方担心它可能带来的失业、隐私侵犯、社会不公正,甚至人类。对自主和生存的威胁。 ChatGPT的出现,就像举着微笑表情符号的修格斯一样,象征着人工智能技术在提供友好交互界面的同时,也隐藏着深刻的社会、伦理和哲学挑战。这场辩论本质上是对我们如何定义智能、人类意味着什么以及我们愿意让技术在我们的生活中扮演什么角色的深刻反思。

迪哈尔提到,多年来流行文化中最著名的人工智能参考文献之一是《构想 AI》。但通过免费推出ChatGPT,OpenAI 让数百万人体验到了完全不同的东西。 “人工智能一直是一个非常模糊的概念,可以无限扩展以包括各种想法,”她说。但ChatGPT 让这些想法变得具体:“突然间,每个人都有了一个具体的参考点。”对于数百万人来说,人工智能的答案现在变成了:ChatGPT。

人工智能行业正在大力营销这张笑脸。想想《疯狂山脉》 最近如何通过行业领导者的言论来讽刺这种炒作。硅谷风险投资大亨马克·安德森(Marc Andreessen)表示:“这有可能让生活变得更好……我认为这是一个轻松得分的机会。”奥特曼表示:“我不想在这里听起来像一个乌托邦式的技术极客,但人工智能所能带来的生活质量的改善是非凡的,”皮查伊说:“人工智能是人类最深刻的技术学习。”

乔恩·斯图尔特讽刺道:“是啊,火,你把它吃掉吧!”

但正如这个表情包所示,ChatGPT 是一个友好的面具。它的背后隐藏着一个名为GPT-4 的怪物,这是一个基于大型神经网络的大型语言模型,它吸收的文本比我们大多数人一千辈子能读到的文本还要多。在持续数月、耗资数千万美元的训练过程中,此类模型的任务是填补数百万本书和相当大一部分互联网中句子的空白。他们一遍又一遍地执行这项任务。从某种意义上说,它们被训练成超级自动完成机器。其结果是一个模型,可以将世界上大部分书面信息转换为统计表示形式,其中的单词最有可能在数十亿个值中跟随其他单词。

对于数学—— 来说,这确实是大量的数学运算。没有人对此提出异议。但问题是,这只是数学,还是这种复杂的数学编码的算法可以类似于人类推理或概念形成?

许多对此主题持积极态度的人认为,我们即将解锁所谓的通用人工智能(AGI),这是一种假设的未来技术,能够在广泛的任务中实现人类水平的表现。其中一些甚至瞄准了所谓的超级智能,即一种远远超出人类表现的科幻技术。该团体相信AGI 将极大地改变世界—— 但目的是什么?这是另一个紧张点。它可能解决世界上所有的问题,也可能带来世界末日。

如今,AGI 出现在世界顶级人工智能实验室的使命宣言中。但这个词是2007 年创造的,当时是一个小众尝试,旨在为这个当时以阅读银行存款单上的笔迹或推荐下一本书为主导的领域注入一些活力。初衷是为了带回人工智能最初的愿景,即可以做类似人类事情的人工智能(稍后会详细介绍)。

谷歌DeepMind 联合创始人Shane Legg 创造了这个术语,他去年告诉我,这更多的是一个愿望:“我没有一个特别明确的定义。”

AGI已经成为人工智能领域最具争议的想法。有些人将其吹捧为下一件大事:AGI 是人工智能,但是,你知道,它要好得多。其他人则声称这个术语过于模糊以至于毫无意义。

“AGI 曾经是一个禁忌词,”OpenAI 前首席科学家Ilya Sutskever 在辞职前告诉我。

但大型语言模型,尤其是ChatGPT,改变了一切。 AGI 从禁忌词变成了营销梦想。

这让我想到了我认为最具说明性的争议之一,——。这场争议列出了争论的双方以及利害攸关的问题。

见证机器的神奇之处

当时,Sebastian Bubeck 正在研究LLM(大型语言模型)的局限性,并对它们的能力有些怀疑。尤其是,担任华盛顿州雷德蒙德微软研究院生成人工智能研究副总裁的布贝克一直在尝试利用这项技术来解决中学数学问题,但未能成功。例如:x-y=0; x 和y 是什么? “我认为推理是一个瓶颈、一个障碍,”他说。 “我认为你必须做一些根本不同的事情来克服这个障碍。”

然后他遇到了GPT-4。他做的第一件事就是尝试那些数学题。 “这个模型完美地解决了这个问题,”他说。 “现在是2024 年,GPT-4 当然可以求解线性方程。但在当时,这太疯狂了。 GPT-3 做不到这一点。”

但当Bubeck 推动GPT-4 去做一些全新的事情时,他真正的顿悟时刻到来了。

关于中学数学问题,它们在互联网上随处可见,而GPT-4 可能只记得它们。 “你如何研究一个可能见过人类所写的一切的模型?”布贝克问道。他的答案是在一系列他和他的同事认为新颖的问题上测试GPT-4。

在与微软研究院的数学家Ronen Eldan 一起尝试时,Bubeck 要求GPT-4 以诗歌的形式给出一个数学证明,证明素数有无穷多个。

以下是GPT-4 回应中的一段话:“如果我们取S 中不在P 中的最小数字/并将其称为p,我们可以将其添加到我们的集合中,你看不到吗?/但这个过程可以是无限重复。/因此,我们的集合P 也必须是无限的,你会同意的。”

有趣,对吧?但布贝克和埃尔丹认为事情远不止于此。 “我们当时就在那间办公室里,”布贝克通过Zoom 指着他身后的房间说道,“我们都从椅子上摔了下来。我们简直不敢相信我们所看到的。这太有创意了,太不同了。”

微软团队还使用GPT-4 生成代码,为用Latex(一种文字处理程序)绘制的独角兽卡通图像添加角。 Bubeck 认为这表明该模型能够读取现有的Latex 代码,理解它所描述的内容,并识别应该在哪里添加角点。

“例子有很多,但其中一些是推理能力的铁证,”他说。推理能力是人类智力的关键组成部分。

《终结者》 论文很快就声名狼藉,并成为人工智能支持者的试金石。 Agera y Arcas 与Google 前研究总监、《每日秀》一书的合著者Peter Norvig 共同撰写了一篇题为《火花》的文章。这篇发表在洛杉矶智库伯格鲁恩研究所支持的杂志Noema 上的文章引用了《人工智能:现代方法》 论文作为起点,指出:“通用人工智能(AGI) 对不同的人来说意味着许多不同的事情,但是它最重要的部分已经在当前一代先进的大规模语言模型中实现,几十年后它将被认为是AGI 的第一个真正的例子。”

从那时起,围绕这个问题的炒作不断升温。当时在OpenAI 专注于超级智能研究的利奥波德·阿申布伦纳(Leopold Aschenbrenner) 去年告诉我:“人工智能在过去几年中以惊人的速度发展。我们不断打破各种基准记录,而且这一进展有增无减。但这仅仅是开始。我们将拥有超人的模型,比我们聪明得多的模型。” (他声称自己于4 月份被OpenAI 解雇,随后又被硅谷解雇,原因是他提出了对构建该技术的安全担忧并“激怒了一些人。”并成立了一个投资基金。)

6 月,阿申布伦纳发表了一份长达165 页的宣言,指出人工智能将“到2025/2026 年”超越大学毕业生,并在本世纪末实现真正的超级智能。然而,业内其他人却对此嗤之以鼻。当阿申布伦纳(Aschenbrenner)在推特上发布了一张图表,显示他预计人工智能将在未来几年继续保持近年来的快速发展步伐时,科技投资者克里斯蒂安·凯尔(Christian Keil)反驳说,按照同样的逻辑,如果他刚出生的儿子体重增加一倍,如果其速度保持不变,到10岁时重量将达到7.5万亿吨。

因此,“AGI 的火花”也成为过度炒作的代名词也就不足为奇了。 “我认为他们有点得意忘形,”马库斯谈到微软团队时说道。 “他们说,‘嘿,我们发现了一些东西!这太神奇了!’但他们没有让科学界证实这一点。” Bender 将《人工通用智能已经到来》 论文比作“粉丝小说”。

声称GPT-4 的行为显示出AGI 的迹象不仅具有挑衅性,而且在其产品中使用GPT-4 的微软显然有动机夸大该技术的功能。一位科技公司首席运营官在LinkedIn 上表示:“这份文件是一种伪装成研究的营销噱头。”

一些人还批评该论文的方法存在缺陷。该证据很难验证,因为它源于与OpenAI 和Microsoft 之外尚未披露的GPT-4 版本的交互。 Bubeck 承认,GPT-4 的公共版本有限制模型功能的护栏,使其他研究人员无法重现他的实验。

一个团队尝试使用一种名为“Processing”的编程语言重新创建独角兽示例,GPT-4 也可以使用该语言来生成图像。他们发现,虽然GPT-4 的公共版本可以生成合格的独角兽图像,但它无法将图像旋转90 度。这看起来似乎是一个很小的差异,但当声称绘制独角兽的能力是AGI 的标志时,这一点至关重要。

《火花》 论文中的一个关键点(包括独角兽示例)是Bubeck 和同事认为这些是创造性推理的真实示例。这意味着团队必须确保这些任务或非常相似的任务不包含在OpenAI 用于训练其模型的海量数据集中。否则,结果可能会被解释为GPT-4 重复其已经看到的模式,而不是创新的迹象。

布贝克坚持认为,他们只给出在网上找不到的模型任务。用Latex 绘制卡通独角兽无疑是这样的任务之一。但互联网非常庞大,其他研究人员很快指出,实际上有一些专门讨论如何用乳胶绘制动物的在线论坛。 “仅供参考,我们当时就意识到了这一点,”布贝克在

(这并没有阻止这些指控:“我要求你停止成为江湖骗子,”加州大学伯克利分校的计算机科学家本·雷希特在推特上回击,指责布贝克“被抓到说谎”。)

布贝克坚称这项工作是出于良好的意图,但他和他的合著者在论文中承认,他们的方法是松散的,并且基于笔记本观察而不是无懈可击的实验。

即便如此,他并不后悔:“论文发表已经一年多了,我还没有看到有人给我提供令人信服的论据,比如为什么独角兽不是真正推理的例子。”

这并不是说他对这个大问题有直接的答案,尽管他的回答揭示了他希望给出的答案类型。 “什么是人工智能?”布贝克问我。 “我想向你明确指出,问题可以很简单,但答案可能很复杂。”

“有很多简单的问题我们仍然不知道答案。其中一些简单的问题是最深刻的,”他继续说道。 “我把这个问题与生命起源同等重要。宇宙的起源是什么?我们从哪里来?”

机器中只有数学

在本德成为人工智能推动者的主要对手之前,她作为两篇有影响力的论文的合著者在人工智能领域留下了自己的印记。 (她喜欢指出,与《火花》 论文和许多其他备受瞩目的论文不同,这两篇论文都经过了同行评审。)第一篇论文是与德国萨尔大学计算语言学家Alexander Koller 共同撰写的。于2020 年撰写并出版,题为“迈向自然语言理解(NLU)”。

“对我来说,这一切都是从与计算语言学界其他人关于语言模型是否真正理解任何东西的辩论开始的,”她说。 (理解,就像推理一样,通常被认为是人类智力的基本组成部分。)

他们通过思想实验阐明了自己的观点。想象一下两个说英语的人被困在邻近的荒岛上,他们通过水下电缆互相发送短信。现在想象一下,一只对英语一无所知但擅长统计模式匹配的章鱼被包裹在电缆中并开始监听这些消息。章鱼变得非常擅长猜测哪些单词会跟在其他单词后面。情况变得如此之好,以至于她相信她仍在与邻居聊天,这时电缆中断了,并开始回复其中一名岛民的消息。 (如果你没有注意到,这个故事中的章鱼是一个聊天机器人。)

与章鱼交谈的人会被欺骗一段时间,但这能持续吗?章鱼能理解通过电缆传输的内容吗?

想象一下,现在岛民说她建造了一个椰子弹射器,并要求章鱼也建造一个并告诉她它的想法。章鱼做不到这一点。由于不了解信息中的文字在现实世界中的含义,它无法遵循岛民的指示。也许它猜到了答案:“好吧,好主意!”岛民可能会认为这意味着与她交谈的人理解她的信息。但如果是这样的话,她就在没有意义的地方看到了意义。最后,想象一下岛民受到熊的攻击并通过电缆发出求救信号。章鱼应该如何处理这些话呢?

本德和科勒认为,这就是大型语言模型的学习方式以及它们的局限性。 “这个思想实验表明,这条道路不会引导我们找到一台能够理解任何东西的机器,”本德说。 “与章鱼的交易是,我们给它训练数据,两个人之间的对话,就是这样。但是当出现意外情况时,它无法处理,因为它不理解。”

本德的另一篇著名论文《火花》 强调了她和她的合著者认为制造大型语言模型的公司忽视的一系列危险。这些危害包括制作模型的巨大计算成本及其对环境的影响;该模型根深蒂固的种族主义、性别歧视和其他辱骂性语言;以及建立一个可以“任意拼接语言形式”序列的系统的危险……根据它们如何组合的概率信息来欺骗人们,而不参考任何含义:随机鹦鹉”。

谷歌高级管理层对这篇论文并不满意,由此产生的冲突导致本德的两位合著者蒂姆尼特·格布鲁和玛格丽特·米切尔被迫离开公司,他们领导着人工智能道德团队。这也让“随机鹦鹉”成为大语言模型的流行贬义词,而本德则直接卷入了这个互相谩骂的漩涡。

对于本德和许多志同道合的研究人员来说,最重要的是,这个领域已经被烟雾和镜子所笼罩:“我认为他们被引导去想象那些可以自己思考、可以为自己做决定的实体,并最终成为可以对其决定负责的东西。”

作为一贯的语言学家,本德现在甚至不想使用不带引号的“人工智能”一词。 “我认为这是一个创造自主思考实体幻觉的概念,这些实体能够为自己做出决定并最终对这些决定负责,”她告诉我。最终,对她来说,这是来自大型科技公司的流行语,分散了人们对许多相关危害的注意力。 “我现在正处于其中,”她说。 “我关心这些问题,过度炒作正在阻碍进展。”

非凡的证据?

阿奎拉·阿卡斯(Agera y Arcas)称本德这样的人为“人工智能否认者”,暗示他们永远不会接受他认为理所当然的观点。本德的立场是,非凡的主张需要非凡的证据,而我们目前没有这样的证据。

但有人正在寻找证据,当他们发现证据清晰无误时——

—无论是思维的火花、随机鹦鹉还是介于两者之间的东西——之前,他们宁愿置身事外。这可以被称为观望阵营。 正如在布朗大学研究神经网络的 Ellie Pavlick 对我所说:“向某些人暗示人类智能可以通过这类机制重现,对他们来说是冒犯。” 她补充道,“人们对这个问题有着根深蒂固的信念——这几乎感觉像是宗教信仰。另一方面,有些人则有点上帝情结。因此,对他们来说,暗示他们就是做不到也是无礼的。” Pavlick 最终持不可知论态度。她坚持自己是一名科学家,会遵循科学的任何导向。她对那些夸张的主张翻白眼,但她相信有一些令人兴奋的事情正在发生。“这就是我和 Bender 及 Koller 意见不同的地方,”她告诉我,“我认为实际上有一些火花——也许不是 AGI 级别的,但就像,里面有些东西是我们未曾预料到会发现的。” 问题在于,要找到对这些令人兴奋的事物及其为何令人兴奋的共识。在如此多的炒作之下,很容易变得愤世嫉俗。 当你听取像 Bubeck 这样的研究人员的意见时,你会发现他们似乎更为冷静。他认为内部争执忽视了他工作的细微差别。“同时持有不同的观点对我来说没有任何问题,”他说,“存在随机鹦鹉现象,也存在推理——这是一个范围,非常复杂。我们并没有所有的答案。” “我们需要一套全新的词汇来描述正在发生的事情,”他说,“当我谈论大型语言模型中的推理时,人们会反驳,原因之一是它与人类的推理方式不同。但我认为我们无法不称之为推理,它确实是一种推理。” 尽管他的公司 Anthropic 是目前全球最炙手可热的 AI 实验室之一,且今年早些时候发布的 Claude 3——与 GPT-4 一样(甚至更多)获得了大量夸张赞誉的大型语言模型,但 Olah 在被问及如何看待 LLMs 时仍表现得相当谨慎。 “我觉得关于这些模型能力的很多讨论都非常部落化,”他说,“人们有先入为主的观念,而且任何一方的论证都没有充分的证据支撑。然后这就变成了基于氛围的讨论,我认为互联网上的这种基于氛围的争论往往会走向糟糕的方向。” Olah 告诉我他有自己的直觉。“我的主观印象是,这些东西在追踪相当复杂的思想,”他说,“我们没有一个全面的故事来解释非常大的模型是如何工作的,但我认为我们所看到的很难与极端的‘随机鹦鹉’形象相调和。” 这就是他的极限:“我不想超越我们现有证据所能强烈推断出的内容。” 上个月,Anthropic 发布了一项研究的结果,研究人员给 Claude 3 做了相当于神经网络的 MRI。通过监测模型运行时哪些部分开启和关闭,他们识别出了在模型展示特定输入时激活的特定神经元模式。 例如,当模型接收到金门大桥的图像或与之相关的词汇时,似乎就会出现一种特定的模式。研究人员发现,如果他们增强模型中这一部分的作用,Claude 就会完全沉迷于这座著名的建筑。无论你问它什么问题,它的回答都会涉及这座桥——甚至在被要求描述自己时,它也会将自己与桥联系起来。有时它会注意到提及桥梁是不恰当的,但又忍不住会这样做。 Anthropic 还报告了与尝试描述或展示抽象概念的输入相关的模式。“我们看到了与欺骗和诚实、谄媚、安全漏洞、偏见相关的特征,”Olah 说,“我们发现了与寻求权力、操纵和背叛相关的特征。” 这些结果让我们迄今为止最清晰地看到了大型语言模型的内部情况。这是对看似难以捉摸的人类特质的一种诱人一瞥。但它真正告诉我们什么呢?正如 Olah 所承认的,他们不知道模型如何处理这些模式。“这是一个相对有限的画面,分析起来相当困难,”他说。 即使 Olah 不愿意具体说明他认为像 Claude 3 这样的大型语言模型内部究竟发生了什么,显而易见的是,这个问题对他来说为什么重要。Anthropic 以其在 AI 安全方面的工作而闻名——确保未来强大的模型会按照我们希望的方式行动,而不是以我们不希望的方式(在行业术语中称为“对齐”)。弄清楚当今模型的工作原理,不仅是如果你想控制未来模型所必需的第一步;它也告诉你,首先你需要对末日情景担心多少。“如果你认为模型不会有很强的能力,”Olah 说,“那么它们可能也不会很危险。” 为何我们难以达成一致 在 2014 年 BBC 对她职业生涯回顾的一次采访中,现年 87 岁的有影响力的认知科学家 Margaret Boden 被问及她是否认为有任何限制会阻止计算机(或者她所谓的“锡罐子”)去做人类能做的事情。 “我当然不认为原则上存在这样的限制,”她说,“因为否认这一点就意味着人类的思维是靠魔法发生的,而我不相信它是靠魔法发生的。” 博登回顾了当前繁荣期的早期阶段,但这种我们能否成功的摇摆不定反映了数十年来她和她的同僚们努力解决的难题,这些难题正是今天研究人员也在努力克服的。AI 作为一个雄心勃勃的目标始于大约 70 年前,而我们至今仍在争论哪些是可实现的,哪些不是,以及我们如何知道自己是否已经实现了目标。大部分——如果不是全部的话——这些争议归结为一点:我们尚未很好地理解什么是智能,或者如何识别它。这个领域充满了直觉,但没有人能确切地说出答案。 自从人们开始认真对待 AI 这一理念以来,我们就一直卡在这个问题上。甚至在此之前,当我们消费的故事开始在集体想象中深深植入类人机器的概念时,也是如此。这些争论的悠久历史意味着,今天的争论往往强化了自一开始就存在的分歧,使得人们更加难以找到共同点。 为了理解我们是如何走到这一步的,我们需要了解我们曾经走过的路。因此,让我们深入探究AI的起源故事——这也是一个为了资金而大肆宣传的故事。 人工智能宣传简史 计算机科学家 John McCarthy(约翰·麦卡锡) 在 1955 年为新罕布什尔州达特茅斯学院 (Dartmouth College)的一个暑期研究项目撰写资助申请时,被认为提出了“人工智能”这一术语。 McCarthy 和他的合著者写道:“该研究基于这样一个假设进行:学习的每一个方面或智力的任何其他特征原则都可以被如此精确地描述,以至于可以制造一台机器来模拟它。我们将尝试找出如何让机器使用语言、形成抽象概念、解决目前仅限于人类的问题,并自我改进。” 他们想让机器做到的这些事情——Bender 称之为“充满憧憬的梦想”——并没有太大改变。使用语言、形成概念和解决问题仍然是当今 AI 的定义性目标。傲慢也并未减少多少:“我们认为,如果精心挑选的一组科学家一起工作一个夏天,就能在这些问题中的一个或多个方面取得显著进展。”他们写道。当然,那个夏天已经延长到了七十年。至于这些问题实际上现在解决了多少,仍然是人们在网络上争论的话题。 然而,这段经典历史中常被忽略的是,人工智能差点就没有被称为“人工智能”。 不止一位 McCarthy 的同事讨厌他提出的这个术语。据历史学家 Pamela McCorduck (帕梅拉·麦考达克)2004 年的书《思考的机器》引用,达特茅斯会议参与者及首台跳棋电脑创造者 Arthur Samuel(亚瑟·塞缪尔) 说:“'人工'这个词让你觉得这里面有些虚假的东西。”数学家 Claude Shannon(克劳德·香农),达特茅斯提案的合著者,有时被誉为“信息时代之父”,更喜欢“自动机研究”这个术语。Herbert Simon(赫伯特·西蒙)和 Allen Newell(艾伦·纽厄尔),另外两位 AI 先驱,在之后的多年里仍称自己的工作为“复杂信息处理”。 但 McCarthy 想要一个能捕捉到他愿景雄心壮志的名称。将这个新领域称为“人工智能”吸引了人们的注意——以及资金。别忘了:AI 既性感又酷。 除了术语,达特茅斯提案还确定了人工智能相互竞争的方法之间的分裂,这种分裂自此以后一直困扰着该领域——Law 称之为“AI 的核心紧张关系”。 McCarthy 和他的同事们想用计算机代码描述“学习的每一个方面或其他任何智力特征”,以便机器模仿。换句话说,如果他们能弄清楚思维是如何工作的——推理的规则——并写下来,他们就可以编程让计算机遵循。这奠定了后来被称为基于规则或符号 AI(现在有时被称为 GOFAI,即“好老式的人工智能”)的基础。但提出硬编码规则来捕获实际、非琐碎问题的解决过程证明太难了。 另一条路径则偏爱神经网络,即试图以统计模式自行学习这些规则的计算机程序。达特茅斯提案几乎是以附带的方式提到它(分别提到“神经网络”和“神经网”)。尽管这个想法起初似乎不太有希望,但一些研究人员还是继续在符号 AI 的同时开发神经网络的版本。但它们真正起飞要等到几十年后——加上大量的计算能力和互联网上的大量数据。快进到今天,这种方法支撑了整个 AI 的繁荣。 这里的主要收获是,就像今天的研究人员一样,AI 的创新者们在基础概念上争执不休,并陷入了自我宣传的旋涡。就连 GOFAI 团队也饱受争吵之苦。年近九旬的哲学家及 AI 先驱 Aaron Sloman 回忆起他在 70 年代认识的“老朋友”明斯基和麦卡锡时,两人“强烈意见不合”:“Minsky 认为 McCarthy 关于逻辑的主张行不通,而 McCarthy 认为 Minsky 的机制无法做到逻辑所能做的。我和他们都相处得很好,但我当时在说,‘你们俩都没搞对。’”(斯洛曼仍然认为,没有人能解释人类推理中直觉与逻辑的运用,但这又是另一个话题!) 随着技术命运的起伏,“AI”一词也随之时兴和过时。在 70 年代初,英国政府发布了一份报告,认为 AI 梦想毫无进展,不值得资助,导致这两条研究路径实际上都被搁置了。所有那些炒作,实质上都未带来任何成果。研究项目被关闭,计算机科学家从他们的资助申请中抹去了“人工智能”一词。 当我在 2008 年完成计算机科学博士学位时,系里只有一个人在研究神经网络。Bender 也有类似的记忆:“在我上大学时,一个流传的笑话是,AI 是我们还没有弄清楚如何用计算机做的任何事。就像是,一旦你弄明白怎么做了,它就不再神奇,所以它就不再是 AI 了。” 但那种魔法——达特茅斯提案中概述的宏伟愿景——仍然生机勃勃,正如我们现在所见,它为 AGI(通用人工智能)梦想奠定了基础。 好行为与坏行为 1950 年,也就是 McCarthy 开始谈论人工智能的五年前,Alan Turing(艾伦·图灵) 发表了一篇论文,提出了一个问题:机器能思考吗?为了探讨这个问题,这位著名的数学家提出了一个假设测试,即后来闻名的图灵测试。测试设想了一个场景,其中一个人类和一台计算机位于屏幕后,而第二个人类通过打字向他们双方提问。如果提问者无法分辨哪些回答来自人类,哪些来自计算机,Turing 认为,可以说计算机也可以算是思考的。 与 McCarthy 团队不同,Turing 意识到思考是一个很难描述的事情。图灵测试是一种绕开这个问题的方法。“他基本上是在说:与其关注智能的本质,不如寻找它在世界中的表现形式。我要寻找它的影子,”Law 说。 1952 年,英国广播公司电台组织了一个专家小组进一步探讨 Turing 的观点。图灵在演播室里与他的两位曼彻斯特大学同事——数学教授 Maxwell Newman (麦克斯韦尔·纽曼)和神经外科教授 Geoffrey Jefferson(杰弗里·杰斐逊),以及剑桥大学的科学、伦理与宗教哲学家 Richard Braithwaite(理查德·布雷斯韦特)一同出席。 Braithwaite 开场说道:“思考通常被认为是人类,也许还包括其他高等动物的专长,这个问题可能看起来太荒谬了,不值得讨论。但当然,这完全取决于‘思考’中包含了什么。” 小组成员围绕 Turing 的问题展开讨论,但始终未能给出确切的定义。 当他们试图定义思考包含什么,其机制是什么时,标准一直在变动。“一旦我们能在大脑中看到因果关系的运作,我们就会认为那不是思考,而是一种缺乏想象力的苦力工作,”图灵说道。 问题在于:当一位小组成员提出某种可能被视为思考证据的行为——比如对新想法表示愤怒——另一位成员就会指出,计算机也可以被编程来做到这一点。 正如 Newman 所说,编程让计算机打印出“我不喜欢这个新程序”是轻而易举的。但他承认,这不过是个把戏。 Jefferson 对此表示赞同:他想要的是一台因为不喜欢新程序而打印出“我不喜欢这个新程序”的计算机。换言之,对于 Jefferson 来说,行为本身是不够的,引发行为的过程才是关键。 但 Turing 并不同意。正如他所指出的,揭示特定过程——他所说的苦力工作——并不能确切指出思考是什么。那么剩下的还有什么? “从这个角度来看,人们可能会受到诱惑,将思考定义为我们还不理解的那些心理过程,”Turing 说,“如果这是正确的,那么制造一台思考机器就是制造一台能做出有趣事情的机器,而我们其实并不完全理解它是如何做到的。”

010-3亿字长文:什么是人工智能?

听到人们首次探讨这些想法感觉有些奇怪。“这场辩论具有预见性,”哈佛大学的认知科学家 Tomer Ullman 说,“其中的一些观点至今仍然存在——甚至更为突出。他们似乎在反复讨论的是,图灵测试首先并且主要是一个行为主义测试。” 对 Turing 而言,智能难以定义但容易识别。他提议,智能的表现就足够了,而没有提及这种行为应当如何产生。 然而,大多数人被逼问时,都会凭直觉判断何为智能,何为非智能。表现出智能有愚蠢和聪明的方式。1981 年,纽约大学的哲学家 Ned Block 表明,Turing 的提议没有满足这些直觉。由于它没有说明行为的原因,图灵测试可以通过欺骗手段(正如纽曼在 BBC 广播中所指出的)来通过。 “一台机器是否真的在思考或是否智能的问题,难道取决于人类审问者的易骗程度吗?”布洛克问道。(正如计算机科学家 Mark Reidl 所评论的那样:“图灵测试不是为了让 AI 通过,而是为了让人类失败。”) Block 设想了一个庞大的查找表,其中人类程序员录入了对所有可能问题的所有可能答案。向这台机器输入问题,它会在数据库中查找匹配的答案并发送回来。Block 认为,任何人使用这台机器都会认为其行为是智能的:“但实际上,这台机器的智能水平就像一个烤面包机,”他写道,“它展现的所有智能都是其程序员的智能。” Block 总结道,行为是否为智能行为,取决于它是如何产生的,而非它看起来如何。Block 的“烤面包机”(后来被称为 Blockhead)是对 Turing 提议背后假设最强有力的反例之一。 探索内在机制 图灵测试本意并非实际衡量标准,但它对我们今天思考人工智能的方式有着深远的影响。这一点随着近年来大型语言模型(LLMs)的爆炸性发展变得尤为相关。这些模型以外在行为作为评判标准,具体表现为它们在一系列测试中的表现。当 OpenAI 宣布 GPT-4 时,发布了一份令人印象深刻的得分卡,详细列出了该模型在多个高中及专业考试中的表现。几乎没有人讨论这些模型是如何取得这些成绩的。 这就留下了一个悬而未决的问题:是的,大型语言模型建立在数学之上,但它们是否在用智能的方式运用这些数学知识呢? 争论再次开始。 布朗大学的 Pavlick 说:“大多数人试图从理论上推测(armchair through it),”这意味着他们在没有观察实际情况的情况下争论理论。“有些人会说,‘我认为情况是这样的,’另一些人则会说,‘嗯,我不这么认为。’我们有点陷入僵局,每个人都不满意。” “ChatGPT 的小把戏如此令人印象深刻,以至于当我们看到这些词从它那里冒出来时,我们会本能地做同样的事,”她说。“它非常擅长模仿语言的形式。问题是,我们根本不擅长遇到语言的形式而不去想象它的其余部分。” 对于一些研究者来说,我们是否能理解其运作方式并不重要。Bubeck 过去研究大型语言模型是为了尝试弄清楚它们是如何工作的,但 GPT-4 改变了他的看法。“这些问题似乎不再那么相关了,”他说。“模型太大,太复杂,以至于我们不能指望打开它并理解里面真正发生的事情。” 但 Pavlick 像 Olah 一样,正努力做这件事。她的团队发现,模型似乎编码了物体之间的抽象关系,比如国家和首都之间的关系。通过研究一个大型语言模型,Pavlick 和她的同事们发现,它使用相同的编码映射法国到巴黎,波兰到华沙。我告诉她,这听起来几乎很聪明。“不,它实际上就是一个查找表,”她说。 但让 Pavlick 感到震惊的是,与 Blockhead 不同,模型自己学会了这个查找表。换句话说,LLM 自己发现巴黎对于法国就如同华沙对于波兰一样。但这展示了什么?自编码查找表而不是使用硬编码的查找表是智能的标志吗?我们该在哪里划清界限? “基本上,问题在于行为是我们唯一知道如何可靠测量的东西,” Pavlick 说。“其他任何东西都需要理论上的承诺,而人们不喜欢不得不做出理论上的承诺,因为它承载了太多含义。” 并非所有人都这样。许多有影响力的科学家乐于做出理论上的承诺。例如,Hinton 坚持认为神经网络是你需要的一切来重现类似人类的智能。“深度学习将能够做一切,”他在 2020 年接受《麻省理工科技评论》采访时说。 这是一个 Hinton 似乎从一开始就坚持的信念。Sloman 记得当 Hinton 是他实验室的研究生时,两人曾发生过争执,他回忆说自己无法说服 Hinton 相信神经网络无法学习某些人类和其他某些动物似乎直观掌握的关键抽象概念,比如某事是否不可能。Sloman 说,我们可以直接看出什么时候某事被排除了。“尽管 Hinton 拥有杰出的智慧,但他似乎从未理解这一点。我不知道为什么,但有大量的神经网络研究者都有这个盲点。” 然后是 Marcus,他对神经网络的看法与 Hinton 截然相反。他的观点基于他所说的科学家对大脑的发现。 Marcus 指出,大脑并不是从零开始学习的白板——它们天生带有指导学习的固有结构和过程。他认为,这就是婴儿能学到目前最好的神经网络仍不能掌握的东西的原因。 “神经网络研究者手头有这个锤子,现在一切都变成了钉子,”Marcus 说。“他们想用学习来做所有的事,许多认知科学家会认为这不切实际且愚蠢。你不可能从零开始学习一切。” 不过,作为一名认知科学家,Marcus 对自己的观点同样确信。“如果真有人准确预测了当前的情况,我想我必须排在任何人名单的最前面,”他在前往欧洲演讲的 Uber 后座上告诉我。“我知道这听起来不太谦虚,但我确实有这样一个视角,如果你试图研究的是人工智能,这个视角就显得非常重要。” 鉴于他对该领域公开的批评,你或许会惊讶于 Marcus 仍然相信通用人工智能(AGI)即将来临。只是他认为当今对神经网络的执着是个错误。“我们可能还需要一两个或四个突破,”他说。“你和我可能活不到那么久,很抱歉这么说。但我认为这将在本世纪发生。也许我们有机会见证。” 炫彩之梦的力量 在以色列拉马特甘家中通过 Zoom 通话时,Dor Skuler 背后的某个类似小台灯的机器人随着我们的谈话时亮时灭。“你可以在我身后看到 ElliQ,”他说。Skuler 的公司 Intuition Robotics 为老年人设计这些设备,而 ElliQ 的设计——结合了亚马逊 Alexa 的部分特征和 R2-D2 的风格——明确表明它是一台计算机。Skuler 表示,如果有任何客户表现出对此有所混淆的迹象,公司就会收回这款设备。 ElliQ 没有脸,没有任何人类的形状。如果你问它关于体育的问题,它会开玩笑说自己没有手眼协调能力,因为它既没有手也没有眼睛。“我实在不明白,为什么行业里都在努力满足图灵测试,” Skuler 说,“为什么为了全人类的利益,我们要研发旨在欺骗我们的技术呢?” 相反,Skuler 的公司赌注于人们可以与明确呈现为机器的机器建立关系。“就像我们有能力与狗建立真实的关系一样,”他说,“狗给人们带来了很多快乐,提供了陪伴。人们爱他们的狗,但他们从不把它混淆成人。” ElliQ 的用户,很多都是八九十岁的老人,称这个机器人为一个实体或一种存在——有时甚至是一个室友。“他们能够为这种介于设备或电脑与有生命之物之间的关系创造一个空间,” Skuler 说。 然而,不管 ElliQ 的设计者多么努力地控制人们对这款设备的看法,他们都在与塑造了我们期望几十年的流行文化竞争。为什么我们如此执着于类人的人工智能?“因为我们很难想象其他的可能性,” Skuler 说(在我们的对话中,他确实一直用“她”来指代 ElliQ),“而且科技行业的许多人都是科幻迷。他们试图让自己的梦想成真。” 有多少开发者在成长过程中认为,构建一台智能机器是他们可能做的最酷的事情——如果不是最重要的事情? 不久之前,OpenAI 推出了新的语音控制版 ChatGPT,其声音听起来像 Scarlett Johansson(斯嘉丽约翰逊),之后包括 Altman 在内的许多人都指出了它与 Spike Jonze (斯派克琼斯) 2013 年的电影《她》之间的联系。 科幻小说共同创造了人工智能被理解为何物。正如 Cave 和 Dihal 在《想象人工智能》一书中所写:“人工智能在成为技术现象很久以前就已经是一种文化现象了。” 关于将人类重塑为机器的故事和神话已有数百年历史。Dihal 指出,人们对于人造人的梦想可能与他们对于飞行的梦想一样长久。她提到,希腊神话中的著名人物戴达罗斯,除了为自己和儿子伊卡洛斯建造了一对翅膀外,还建造了一个实质上是巨型青铜机器人的塔洛斯,它会向过往的海盗投掷石头。 “机器人”这个词来自 robota,这是捷克剧作家 Karel Čapek 在他的 1920 年戏剧《罗素姆的万能机器人》中创造的一个术语,意为“强制劳动”。 Isaac Asimov(艾萨克·阿西莫夫)在其科幻作品中概述的“机器人学三大法则”,禁止机器伤害人类,而在像《终结者》这样的电影中,这些法则被反转,成为了对现实世界技术的普遍恐惧的经典参考点。2014 年的电影《机械姬》是对图灵测试的戏剧性演绎。去年的大片《造物主》设想了一个未来世界,在这个世界里,人工智能因引发核弹爆炸而被取缔,这一事件被某些末日论者至少视为一个可能的外部风险。 Cave 和 Dihal 讲述了另一部电影《超验骇客》(2014 年),在这部电影中,由 Johnny Depp(约翰尼·德普)饰演的一位人工智能专家将自己的意识上传到了电脑中,这一情节推动了元末日论者 Stephen Hawking(斯蒂芬·霍金)、物理学家 Max Tegmark(马克斯·泰格马克)以及人工智能研究员 Stuart Russell(斯图尔特·拉塞尔)提出的叙事。在电影首映周末发表在《赫芬顿邮报》上的一篇文章中,三人写道:“随着好莱坞大片《超验骇客》的上映……它带来了关于人类未来的冲突愿景,很容易将高度智能机器的概念视为纯粹的科幻小说。但这将是一个错误,可能是我们有史以来最大的错误。” 大约在同一时期,Tegmark 创立了未来生命研究所,其使命是研究和促进人工智能安全。电影中德普的搭档 Morgan Freeman(摩根·弗里曼)是该研究所董事会成员,而曾在电影中有客串的 Elon Musk 在第一年捐赠了1000万美元。对于 Cave 和 Dihal 来说,《超验骇客》是流行文化、学术研究、工业生产和“亿万富翁资助的未来塑造之战”之间多重纠葛的完美例证。 去年在 Altman 的世界巡回伦敦站,当被问及他在推特上所说“人工智能是世界一直想要的技术”是什么意思时,站在房间后面,面对着数百名听众,我听到他给出了自己的起源故事:“我小时候非常紧张,读了很多科幻小说,很多周五晚上都待在家里玩电脑。但我一直对人工智能很感兴趣,我觉得那会非常酷。”他上了大学,变得富有,并见证了神经网络变得越来越好。“这可能非常好,但也可能真的很糟糕。我们要怎么应对?”他回忆起 2015 年时的想法,“我最终创立了 OpenAI。” 为何你应该关心一群书呆子对 AI 的争论 好的,你已经明白了:没人能就人工智能是什么达成一致。但似乎每个人都同意的是,当前围绕 AI 的争论已远远超出了学术和科学范畴。政治和道德因素正在发挥作用,而这并没有帮助大家减少彼此认为对方错误的情况。 解开这个谜团很难。当某些道德观点涵盖了整个人类的未来,并将其锚定在一个无人能确切定义的技术上时,要想看清正在发生什么变得尤为困难。 但我们不能就此放弃。因为无论这项技术是什么,它即将到来,除非你与世隔绝,否则你将以这样或那样的形式使用它。而技术的形态,以及它解决和产生的问题,都将受到你刚刚读到的这类人的思想和动机的影响,尤其是那些拥有最大权力、最多资金和最响亮声音的人。 这让我想到了 TESCREALists。等等,别走!我知道,在这里引入另一个新概念似乎不公平。但要理解掌权者如何塑造他们构建的技术,以及他们如何向全球监管机构和立法者解释这些技术,你必须真正了解他们的思维方式。 Gebru 在离开谷歌后创建了分布式人工智能研究所,以及凯斯西储大学的哲学家和历史学家 Émile Torres(埃米尔·托雷斯),他们追踪了几个技术乌托邦信仰体系对硅谷的影响。二人认为,要理解 AI 当前的状况——为什么像谷歌 DeepMind 和 OpenAI 这样的公司正在竞相构建通用人工智能(AGI),以及为什么像 Tegmark 和 Hinton 这样的末日预言者警告即将到来的灾难——必须通过托雷斯所称的 TESCREAL 框架来审视这个领域。 这个笨拙的缩写词(发音为tes-cree-all)取代了一个更笨拙的标签列表:超人类主义、外展主义、奇点主义、宇宙主义、理性主义、有效利他主义和长期主义。关于这些世界观的许多内容(以及将会有的更多内容)已经被撰写,所以我在这里就不赘述了。(对于任何想要深入探索的人来说,这里充满了层层递进的兔子洞。选择你的领域,带上你的探险装备吧。) 这一系列相互重叠的思想观念对西方科技界中某种类型的天才思维极具吸引力。一些人预见到人类的永生,其他人则预测人类将殖民星辰。共同的信条是,一种全能的技术——无论是通用人工智能(AGI)还是超级智能,选边站队吧——不仅触手可及,而且不可避免。你可以在诸如 OpenAI 这样的前沿实验室里无处不在的拼命态度中看到这一点:如果我们不制造出 AGI,别人也会。 更重要的是,TESCREA 主义者认为 AGI 不仅能解决世界的问题,还能提升人类层次。“人工智能的发展和普及——远非我们应该害怕的风险——是我们对自己、对子女和对未来的一种道德义务,” Andreessen 去年在一篇备受剖析的宣言中写道。我多次被告知,AGI 是让世界变得更美好的途径——这是 DeepMind 的首席执行官和联合创始人 Demis Hassabis(戴米斯·哈萨比斯)、新成立的微软 AI 的首席执行官及 DeepMind 的另一位联合创始人Mustafa Suleyman、Sutskever、Altman 等人告诉我的。 但正如 Andreessen 所指出的,这是一种阴阳心态。技术乌托邦的反面就是技术地狱。如果你相信自己正在建设一种强大到足以解决世界上所有问题的技术,你很可能也相信它有可能完全出错的风险。当二月份在世界政府峰会上被问及什么让他夜不能寐时,阿尔特曼回答说:“都是科幻小说里的东西。” 这种紧张局势是 Hinton 在过去一年里不断强调的。这也是 Anthropic 等公司声称要解决的问题,是 Sutskever 在他的新实验室关注的焦点,也是他去年希望 OpenAI 内部特别团队专注的,直到在公司如何平衡风险与回报上的分歧导致该团队大多数成员离职。 当然,末日论也是宣传的一部分。(“声称你创造了某种超级智能的东西有利于销售数字,”迪哈尔说,“就像是,‘请有人阻止我这么好,这么强大吧。’”)但不论繁荣还是毁灭,这些人号称要解决的到底是什么问题?谁的问题?我们真的应该信任他们建造的东西以及他们向我们的领导人讲述的内容吗? Gebru 和 Torres(以及其他一些人)坚决反对:不,我们不应该。他们对这些意识形态及其可能如何影响未来技术,特别是 AI 的发展持高度批评态度。从根本上讲,他们将这些世界观中几个以“改善”人类为共同焦点的观念与 20 世纪的种族优生运动联系起来。 他们认为,一个危险是,资源向这些意识形态要求的科技创新转移,从构建 AGI 到延长寿命再到殖民其他星球,最终将以数十亿非西方和非白人群体的利益为代价,使西方和白人受益。如果你的目光锁定在幻想的未来上,很容易忽视创新的当下成本,比如劳工剥削、种族和性别偏见的根深蒂固以及环境破坏。 Bender 反思这场通往 AGI 竞赛的牺牲时问道:“我们是否在试图建造某种对我们有用工具?”如果是这样,那是为谁建造的,我们如何测试它,它工作得有多好?“但如果我们要建造它的目的仅仅是为了能够说我们做到了,这不是我能支持的目标。这不是值得数十亿美元的目标。” Bender 说,认识到 TESCREAL 意识形态之间的联系让她意识到这些辩论背后还有更多的东西。“与那些人的纠缠是——”她停顿了一下,“好吧,这里不仅仅只有学术思想。其中还捆绑着一种道德准则。” 当然,如果这样缺乏细微差别地阐述,听起来好像我们——作为社会,作为个人——并没有得到最好的交易。这一切听起来也很愚蠢。当 Gebru 去年在一次演讲中描述了 TESCREAL 组合的部分内容时,她的听众笑了。也的确很少有人会认同自己是这些思想流派的忠实信徒,至少在极端意义上不会。 但如果我们不了解那些构建这项技术的人是如何看待它的,我们又怎么能决定我们要达成什么样的协议呢?我们决定使用哪些应用程序,我们想向哪个聊天机器人提供个人信息,我们在社区支持哪些数据中心,我们想投票给哪些政治家? 过去常常是这样:世界上有一个问题,我们就建造一些东西来解决它。而现在,一切都颠倒了:目标似乎是建造一台能做所有事情的机器,跳过在找到解决方案前缓慢而艰难地识别问题的工作。 正如 Gebru 在那次演讲中所说,“一台能解决所有问题的机器:如果这都不是魔法,那它是什么呢?” 语义,语义……还是语义? 当直截了当地问及什么是人工智能时,很多人会回避这个问题。Suleyman 不是这样。四月份,微软 AI 的首席执行官站在 TED 的舞台上,告诉观众他对六岁侄子提出同样问题时的回答。Suleyman 解释说,他能给出的最佳答案是,人工智能是“一种新型的数字物种”——一种如此普遍、如此强大的技术,以至于称其为工具已不再能概括它能为我们做什么。 “按照目前的发展轨迹,我们正走向某种我们都难以描述的出现,而我们无法控制我们不理解的事物,”他说,“因此,比喻、心智模型、名称——这些都至关重要,只有这样我们才能在最大限度利用人工智能的同时限制其潜在的负面影响。” 语言很重要!我希望从我们经历过的曲折、转折和情绪爆发中,这一点已经很清楚了。但我也希望你在问:是谁的语言?又是谁的负面影响?Suleyman 是一家科技巨头的行业领导者,该公司有望从其 AI 产品中赚取数十亿美元。将这些产品的背后技术描述为一种新型物种,暗示着某种前所未有的东西,它具有我们从未见过的自主性和能力。这让我感到不安,你呢? 我无法告诉你这里是否有魔法(讽刺与否)。我也无法告诉你数学是如何实现 Bubeck 和其他许多人在这项技术中看到的(目前还没有人能做到)。你必须自己下结论。但我可以揭示我自己的观点。 与此同时,大型语言模型让我感到惊奇。它们究竟可以做什么以及如何做到,是我们这个时代最令人兴奋的问题之一。 通过大型语言模型——通过它们的微笑面具——我们面临着前所未有的思考对象。“它将这个假设的东西变得非常具体,”Pavlick 说,“我从未想过一段语言的生成是否需要智慧,因为我从未处理过来自非人类的言语。” 人工智能包含很多东西。但我不认为它是类人的。我不认为它是解决我们所有(甚至大部分)问题的答案。它不是 ChatGPT、Gemini 或 Copilot,也不是神经网络。它是一种理念、一种愿景,一种愿望的实现。理念受到其他理念、道德、准宗教信念、世界观、政治和直觉的影响。“人工智能”是描述一系列不同技术的有用简略说法。但人工智能并不是单一事物;从来都不是,不管品牌标识多么频繁地烙印在外包装上。 “事实是,这些词汇——智力、推理、理解等——在需要精确界定之前就已经被定义了,”Pavlick 说,“当问题变成‘模型是否理解——是或否?’时,我并不喜欢,因为,嗯,我不知道。词语会被重新定义,概念会不断进化。” 我认为这是对的。我们越早能后退一步,就我们不知道的事达成共识,并接受这一切尚未尘埃落定,我们就能越快地——我不知道,或许不是手牵手唱起 Kumbaya(《欢聚一堂》),但我们可以停止互相指责。

用户评论

淡淡の清香

这3亿字长文让我对人工智能有了更深的理解,以前总觉得是个遥不可及的东西,现在感觉离我们的生活越来越近了。

    有8位网友表示赞同!

聽風

读完这篇长文,我对人工智能的概念清晰多了,但是这3亿字真的看不完啊,有没有简版的?

    有8位网友表示赞同!

为爱放弃

哇,3亿字!我看了前几章就感觉头都大了,人工智能那么复杂吗?

    有5位网友表示赞同!

ー半忧伤

这篇长文确实详实,但是感觉有点枯燥,有没有人能总结一下重点呢?

    有15位网友表示赞同!

良人凉人

这3亿字让我对人工智能有了全新的认识,简直打开了新世界的大门!

    有15位网友表示赞同!

一别经年

3亿字?我都不敢想象,这样的文章对普通读者来说太有挑战性了。

    有9位网友表示赞同!

娇眉恨

长文虽好,但3亿字也太夸张了吧,我估计读完要花一辈子了。

    有8位网友表示赞同!

青衫负雪

读完这篇长文,我对人工智能有了更全面的认识,感觉受益匪浅。

    有11位网友表示赞同!

米兰

这3亿字让我对人工智能的发展历史有了详细了解,太感谢作者了。

    有8位网友表示赞同!

々爱被冰凝固ゝ

人工智能这么复杂,看完这篇长文我都有点怀疑自己能不能理解了。

    有20位网友表示赞同!

打个酱油卖个萌

3亿字啊,简直是个巨作!我要慢慢消化,争取吃透每个细节。

    有5位网友表示赞同!

逾期不候

这篇长文让我对人工智能的未来充满了期待,希望人工智能能给我们带来更多便利。

    有20位网友表示赞同!

一生只盼一人

读完这篇长文,我对人工智能的担忧也减少了,原来它并没有我想象的那么可怕。

    有20位网友表示赞同!

何必锁我心

3亿字!这简直是对耐心和毅力的考验,我要挑战一下自己。

    有17位网友表示赞同!

入骨相思

这篇长文让我对人工智能有了更深的敬畏之心,感觉它真的是个神奇的领域。

    有13位网友表示赞同!

堕落爱人!

虽然3亿字有点吓人,但我还是决定挑战一下,看看自己能不能读完。

    有18位网友表示赞同!

?亡梦爱人

读完这篇长文,我对人工智能有了更全面的了解,感觉之前的认知太肤浅了。

    有17位网友表示赞同!

别悲哀

这3亿字的长文让我对人工智能有了全新的看法,原来它可以如此神奇。

    有5位网友表示赞同!

涐们的幸福像流星丶

3亿字啊,简直是个知识宝库!我要珍藏这篇长文,反复研读。

    有11位网友表示赞同!