010-3亿字长文:什么是人工智能?
2024-10-30 03:49:28 | 作者: 匿名
网络恶搞、谩骂以及其他重要的、改变世界的分歧……
人工智能既性感又酷。它正在加剧不平等,颠覆就业市场并破坏教育系统。人工智能就像主题公园游乐设施或魔术。它是我们的终极发明,也是道德责任的体现。人工智能是这十年的流行词,也是一个可以追溯到1955 年的营销术语。人工智能是人形的,但也像来自外星球的访客;它非常聪明,但也非常愚蠢。人工智能的繁荣将推动经济发展,其泡沫似乎即将破裂。人工智能将增加丰富性,使人类能够在宇宙中实现最大程度的繁荣,但也预示着我们的灭亡。
大家都在谈论什么?
人工智能是我们这个时代最热门的技术。但它到底是什么?这听起来可能是一个愚蠢的问题,但它从未如此紧迫。简而言之,人工智能是一组技术的总称,这些技术使计算机能够完成人类执行时需要智能的任务。想想面部识别、语音理解、驾驶汽车、写句子、回答问题、创建图像等。但即使这个定义也包含多种含义。
这正是问题所在。让机器“理解”语音或“写出”句子意味着什么?我们可以要求这些机器执行哪些任务?我们应该对他们的执行能力给予多少信任?
随着这项技术从原型迅速发展到产品,这些问题已提上我们所有人的议程。但是(剧透警告!)我没有答案。甚至不可能准确地告诉你人工智能是什么。制作它的人也并不真正知道。旧金山人类人工智能实验室首席科学家克里斯·奥拉(Chris Olah) 表示:“这些都是重要的问题,每个人都觉得自己可以发表意见。” “与此同时,我认为你可以对此进行争论,但目前没有证据表明这一点。”反驳你。”
但如果你愿意坐下来加入这一发现之旅,我可以告诉你为什么没有人真正知道,为什么每个人似乎都同意某件事,以及为什么你应该关心。
让我们从一个不经意的笑话开始吧……
时间回到2022 年,《麻省理工科技评论》的首集播出到一半,这个略显平淡的播客由脾气暴躁的联合主持人亚历克斯·汉纳(Alex Hanna) 和艾米丽·本德(Emily Bender) 主持,他们从不厌倦用“最锋利的针”刺伤世界,其中包括一些最被吹捧的神圣事物在硅谷,他们提出了一个荒谬的建议。他们正在大声朗读Google 工程副总裁Blaise Agera y Arcas 发表的一篇12,500 字的Medium 文章,标题为《神秘 AI 炒作剧场 3000》。阿奎拉·阿卡斯认为,人工智能可以像人类一样理解道德价值观等概念,这表明机器可能能够被教导如何行为。
然而,汉娜和本德并不买账。他们决定将“AI”一词替换为“数学魔法”——是一个庞大而复杂的数学运算。
这种不敬的表达旨在刺穿他们认为引文中存在的夸张和拟人论。很快,分布式人工智能研究所的研究主任兼社会学家汉纳(Hanna)和华盛顿大学的计算语言学家本德(因批评科技行业的夸大其词而在网络上享有盛誉)来到了Agera y Arcas。所传达的信息与选择听到的信息之间出现了鸿沟。
阿奎拉·阿卡斯(Agera y Arcas) 问道:“人工智能、其创造者和用户应如何承担道德责任?”
本德反问道:“数学魔法应该如何承担道德责任?”
“这里存在分类错误,”她指出。汉纳和本德不仅反对阿奎拉·伊·阿卡斯的论点,他们还认为这毫无意义。 “我们能不能停止使用‘人工智能’或‘人工智能’这样的表达方式,就好像它们是世界上的个体一样?”本德说道。
听起来好像他们正在讨论完全不同的事情,但事实并非如此。双方讨论了当前人工智能热潮背后的技术————大规模语言模型。只是讨论人工智能的方式比以往任何时候都更加两极分化。那年5 月,在预览公司旗舰模型GPT-4 的最新更新时,OpenAI 首席执行官Sam Altman 在Twitter 上写道:“对我来说,这感觉就像魔法一样。”
从数学到魔法还有很长的路要走。
人工智能的信徒们对这项技术当前的力量和未来不可避免的进步有着信仰般的信念。他们声称通用人工智能即将到来,超级智能也不甘落后。同时,也有异见人士对此嗤之以鼻,认为这全是神秘的废话。
这种流行的话题性叙事受到了一系列大人物的影响,从桑达尔·皮查伊和萨蒂亚·纳德拉等大型科技首席营销官,到埃隆·马斯克和奥特曼等行业边缘人物,再到杰弗里·辛顿等明星计算机科学家。有时这些倡导者和悲观者是同一个人,告诉我们这项技术好得惊人。
总之,人工智能已经成为大家眼中无所不能的存在,将领域划分为粉丝群体。不同阵营之间的沟通往往显得不一致,而且并不总是真诚的。
也许你觉得这一切都很愚蠢或烦人。但考虑到这些技术的力量和复杂性——它们已经被用来确定我们支付的保险费用、我们如何检索信息、我们如何工作等等——我们没有时间等待至少就我们的内容达成一致。正在谈论。
这些问题涉及我们所谓的“人工智能”概念的核心,并且已经争论了几十年。但随着大规模语言模型的兴起,这些模型可以以令人恐惧或令人着迷的现实主义方式模仿我们说话和写作的方式,围绕人工智能的讨论变得更加尖酸刻薄。
我们已经制造出了具有类人行为的机器,但我们还没有摆脱想象机器背后有类人思维的习惯。这导致了对人工智能能力的高估;它将本能反应固化为教条立场,并加剧了技术乐观主义者和怀疑论者之间更广泛的文化战争。
除了这种不确定性之外,还有许多文化包袱,从我打赌许多业内人士在成长过程中接触过的科幻小说,到塑造我们对未来的看法的更有害的意识形态。鉴于这种令人兴奋的混合,关于人工智能的争论不再只是学术性的(也许从来都不是)。人工智能点燃激情,让成年人互相指责。
马库斯说:“目前这场辩论在智力上并不健康。”多年来,马库斯一直在指出深度学习的陷阱和局限性,这项技术将人工智能推向主流,并支撑着从大型语言模型到图像识别到自动驾驶汽车的一切。在他2001 年出版的书《机器能学会如何表现吗?》 中,他认为深度学习背后的神经网络无法独立推理。 (我们暂时跳过这个,但稍后我会回到句子中“推理”等词的重要性。)
马库斯表示,他曾试图与Hinton 就大型语言模型的实际功能进行适当的辩论,Hinton 去年公开表达了对他帮助发明的技术的生存恐惧。 “他就是不会这么做,”马库斯说。 “他骂我是傻瓜。” (我过去与Hinton 谈论Marcus 时可以证明这一点。“ChatGPT 显然比他更了解神经网络,”Hinton 去年告诉我。”)Marcus 在他写的一篇名为:010 的文章后也引起了不满30000。 Altman 在Twitter 上回应:“给我一个平庸的深度学习怀疑论者的信心。”
与此同时,敲响警钟给了马库斯一个个人品牌,并邀请他与奥特曼坐在一起,在美国参议院人工智能监督委员会作证。
这正是为什么所有这些论点都比普通的在线恶意行为更重要的原因。当然,其中涉及巨大的自负和巨额资金。但更重要的是,随着行业领袖和固执己见的科学家被国家元首和立法者召集来解释这项技术是什么以及它能做什么(以及我们应该多么害怕),这些争议变得更加重要。当这项技术嵌入到我们每天使用的软件中时,从搜索引擎到文字处理应用程序再到手机上的助手,人工智能并不会消失。但如果我们不知道自己买的是什么,谁会被骗呢?
Stephen Cave 和Kanta Dihal 在2023 年合集《代数思维》 中写道:“很难想象历史上有任何其他技术引发了这样的争论—— 关于它是无处不在还是根本不存在的争论。事实是存在这样一场关于人工智能的争论证明了它的神话本质。”
最重要的是,人工智能是一种想法、一种理想,它既受到数学和计算机科学的影响,也受到科幻小说的世界观和元素的影响。当我们谈论人工智能时,弄清楚我们在谈论什么将会澄清很多事情。我们可能不会在这些事情上达成一致,但就人工智能的本质达成一致至少是讨论人工智能应该是什么的一个良好的开端。
那么,大家都在为了什么而奋斗呢?
2022 年末,OpenAI 发布ChatGPT 后不久,一个新的表情包开始在网上流传,它比任何其他方式都更好地捕捉到了这项技术的奇怪之处。在大多数版本中,一个名为“shoggoth”的洛夫克拉夫特式怪物被显示为—— 个触手和—— 个眼球举着一个温和的笑脸表情符号,仿佛要隐藏其真实本性。 ChatGPT 的对话措辞表现出一种像人类一样的平易近人,但在友好的表面之下却隐藏着难以理解的复杂性甚至恐怖。 (正如H.P. 洛夫克拉夫特在他1936 年的中篇小说《深度学习正遭遇瓶颈》 中所写:“这是一件难以形容的可怕事情,比任何地铁列车都大。—— 一种无定形的原生质气泡。聚合物。”)
这些争论的核心是这样一个观点:人工智能不仅仅是一个技术问题;它也是一个技术问题。它涉及我们对自己的认知、创造力、道德责任、甚至对未来的希望和恐惧的基本理解。一方面看到人工智能带来的无限潜力,是人类智慧的延伸,是解决复杂问题、提高生活质量的工具;另一方面看到人工智能带来的无限潜力,是人类智慧的延伸,是解决复杂问题、提高生活质量的工具;另一方担心它可能带来的失业、隐私侵犯、社会不公正,甚至人类。对自主和生存的威胁。 ChatGPT的出现,就像举着微笑表情符号的修格斯一样,象征着人工智能技术在提供友好交互界面的同时,也隐藏着深刻的社会、伦理和哲学挑战。这场辩论本质上是对我们如何定义智能、人类意味着什么以及我们愿意让技术在我们的生活中扮演什么角色的深刻反思。
迪哈尔提到,多年来流行文化中最著名的人工智能参考文献之一是《构想 AI》。但通过免费推出ChatGPT,OpenAI 让数百万人体验到了完全不同的东西。 “人工智能一直是一个非常模糊的概念,可以无限扩展以包括各种想法,”她说。但ChatGPT 让这些想法变得具体:“突然间,每个人都有了一个具体的参考点。”对于数百万人来说,人工智能的答案现在变成了:ChatGPT。
人工智能行业正在大力营销这张笑脸。想想《疯狂山脉》 最近如何通过行业领导者的言论来讽刺这种炒作。硅谷风险投资大亨马克·安德森(Marc Andreessen)表示:“这有可能让生活变得更好……我认为这是一个轻松得分的机会。”奥特曼表示:“我不想在这里听起来像一个乌托邦式的技术极客,但人工智能所能带来的生活质量的改善是非凡的,”皮查伊说:“人工智能是人类最深刻的技术学习。”
乔恩·斯图尔特讽刺道:“是啊,火,你把它吃掉吧!”
但正如这个表情包所示,ChatGPT 是一个友好的面具。它的背后隐藏着一个名为GPT-4 的怪物,这是一个基于大型神经网络的大型语言模型,它吸收的文本比我们大多数人一千辈子能读到的文本还要多。在持续数月、耗资数千万美元的训练过程中,此类模型的任务是填补数百万本书和相当大一部分互联网中句子的空白。他们一遍又一遍地执行这项任务。从某种意义上说,它们被训练成超级自动完成机器。其结果是一个模型,可以将世界上大部分书面信息转换为统计表示形式,其中的单词最有可能在数十亿个值中跟随其他单词。
对于数学—— 来说,这确实是大量的数学运算。没有人对此提出异议。但问题是,这只是数学,还是这种复杂的数学编码的算法可以类似于人类推理或概念形成?
许多对此主题持积极态度的人认为,我们即将解锁所谓的通用人工智能(AGI),这是一种假设的未来技术,能够在广泛的任务中实现人类水平的表现。其中一些甚至瞄准了所谓的超级智能,即一种远远超出人类表现的科幻技术。该团体相信AGI 将极大地改变世界—— 但目的是什么?这是另一个紧张点。它可能解决世界上所有的问题,也可能带来世界末日。
如今,AGI 出现在世界顶级人工智能实验室的使命宣言中。但这个词是2007 年创造的,当时是一个小众尝试,旨在为这个当时以阅读银行存款单上的笔迹或推荐下一本书为主导的领域注入一些活力。初衷是为了带回人工智能最初的愿景,即可以做类似人类事情的人工智能(稍后会详细介绍)。
谷歌DeepMind 联合创始人Shane Legg 创造了这个术语,他去年告诉我,这更多的是一个愿望:“我没有一个特别明确的定义。”
AGI已经成为人工智能领域最具争议的想法。有些人将其吹捧为下一件大事:AGI 是人工智能,但是,你知道,它要好得多。其他人则声称这个术语过于模糊以至于毫无意义。
“AGI 曾经是一个禁忌词,”OpenAI 前首席科学家Ilya Sutskever 在辞职前告诉我。
但大型语言模型,尤其是ChatGPT,改变了一切。 AGI 从禁忌词变成了营销梦想。
这让我想到了我认为最具说明性的争议之一,——。这场争议列出了争论的双方以及利害攸关的问题。
见证机器的神奇之处
当时,Sebastian Bubeck 正在研究LLM(大型语言模型)的局限性,并对它们的能力有些怀疑。尤其是,担任华盛顿州雷德蒙德微软研究院生成人工智能研究副总裁的布贝克一直在尝试利用这项技术来解决中学数学问题,但未能成功。例如:x-y=0; x 和y 是什么? “我认为推理是一个瓶颈、一个障碍,”他说。 “我认为你必须做一些根本不同的事情来克服这个障碍。”
然后他遇到了GPT-4。他做的第一件事就是尝试那些数学题。 “这个模型完美地解决了这个问题,”他说。 “现在是2024 年,GPT-4 当然可以求解线性方程。但在当时,这太疯狂了。 GPT-3 做不到这一点。”
但当Bubeck 推动GPT-4 去做一些全新的事情时,他真正的顿悟时刻到来了。
关于中学数学问题,它们在互联网上随处可见,而GPT-4 可能只记得它们。 “你如何研究一个可能见过人类所写的一切的模型?”布贝克问道。他的答案是在一系列他和他的同事认为新颖的问题上测试GPT-4。
在与微软研究院的数学家Ronen Eldan 一起尝试时,Bubeck 要求GPT-4 以诗歌的形式给出一个数学证明,证明素数有无穷多个。
以下是GPT-4 回应中的一段话:“如果我们取S 中不在P 中的最小数字/并将其称为p,我们可以将其添加到我们的集合中,你看不到吗?/但这个过程可以是无限重复。/因此,我们的集合P 也必须是无限的,你会同意的。”
有趣,对吧?但布贝克和埃尔丹认为事情远不止于此。 “我们当时就在那间办公室里,”布贝克通过Zoom 指着他身后的房间说道,“我们都从椅子上摔了下来。我们简直不敢相信我们所看到的。这太有创意了,太不同了。”
微软团队还使用GPT-4 生成代码,为用Latex(一种文字处理程序)绘制的独角兽卡通图像添加角。 Bubeck 认为这表明该模型能够读取现有的Latex 代码,理解它所描述的内容,并识别应该在哪里添加角点。
“例子有很多,但其中一些是推理能力的铁证,”他说。推理能力是人类智力的关键组成部分。
《终结者》 论文很快就声名狼藉,并成为人工智能支持者的试金石。 Agera y Arcas 与Google 前研究总监、《每日秀》一书的合著者Peter Norvig 共同撰写了一篇题为《火花》的文章。这篇发表在洛杉矶智库伯格鲁恩研究所支持的杂志Noema 上的文章引用了《人工智能:现代方法》 论文作为起点,指出:“通用人工智能(AGI) 对不同的人来说意味着许多不同的事情,但是它最重要的部分已经在当前一代先进的大规模语言模型中实现,几十年后它将被认为是AGI 的第一个真正的例子。”
从那时起,围绕这个问题的炒作不断升温。当时在OpenAI 专注于超级智能研究的利奥波德·阿申布伦纳(Leopold Aschenbrenner) 去年告诉我:“人工智能在过去几年中以惊人的速度发展。我们不断打破各种基准记录,而且这一进展有增无减。但这仅仅是开始。我们将拥有超人的模型,比我们聪明得多的模型。” (他声称自己于4 月份被OpenAI 解雇,随后又被硅谷解雇,原因是他提出了对构建该技术的安全担忧并“激怒了一些人。”并成立了一个投资基金。)
6 月,阿申布伦纳发表了一份长达165 页的宣言,指出人工智能将“到2025/2026 年”超越大学毕业生,并在本世纪末实现真正的超级智能。然而,业内其他人却对此嗤之以鼻。当阿申布伦纳(Aschenbrenner)在推特上发布了一张图表,显示他预计人工智能将在未来几年继续保持近年来的快速发展步伐时,科技投资者克里斯蒂安·凯尔(Christian Keil)反驳说,按照同样的逻辑,如果他刚出生的儿子体重增加一倍,如果其速度保持不变,到10岁时重量将达到7.5万亿吨。
因此,“AGI 的火花”也成为过度炒作的代名词也就不足为奇了。 “我认为他们有点得意忘形,”马库斯谈到微软团队时说道。 “他们说,‘嘿,我们发现了一些东西!这太神奇了!’但他们没有让科学界证实这一点。” Bender 将《人工通用智能已经到来》 论文比作“粉丝小说”。
声称GPT-4 的行为显示出AGI 的迹象不仅具有挑衅性,而且在其产品中使用GPT-4 的微软显然有动机夸大该技术的功能。一位科技公司首席运营官在LinkedIn 上表示:“这份文件是一种伪装成研究的营销噱头。”
一些人还批评该论文的方法存在缺陷。该证据很难验证,因为它源于与OpenAI 和Microsoft 之外尚未披露的GPT-4 版本的交互。 Bubeck 承认,GPT-4 的公共版本有限制模型功能的护栏,使其他研究人员无法重现他的实验。
一个团队尝试使用一种名为“Processing”的编程语言重新创建独角兽示例,GPT-4 也可以使用该语言来生成图像。他们发现,虽然GPT-4 的公共版本可以生成合格的独角兽图像,但它无法将图像旋转90 度。这看起来似乎是一个很小的差异,但当声称绘制独角兽的能力是AGI 的标志时,这一点至关重要。
《火花》 论文中的一个关键点(包括独角兽示例)是Bubeck 和同事认为这些是创造性推理的真实示例。这意味着团队必须确保这些任务或非常相似的任务不包含在OpenAI 用于训练其模型的海量数据集中。否则,结果可能会被解释为GPT-4 重复其已经看到的模式,而不是创新的迹象。
布贝克坚持认为,他们只给出在网上找不到的模型任务。用Latex 绘制卡通独角兽无疑是这样的任务之一。但互联网非常庞大,其他研究人员很快指出,实际上有一些专门讨论如何用乳胶绘制动物的在线论坛。 “仅供参考,我们当时就意识到了这一点,”布贝克在
(这并没有阻止这些指控:“我要求你停止成为江湖骗子,”加州大学伯克利分校的计算机科学家本·雷希特在推特上回击,指责布贝克“被抓到说谎”。)
布贝克坚称这项工作是出于良好的意图,但他和他的合著者在论文中承认,他们的方法是松散的,并且基于笔记本观察而不是无懈可击的实验。
即便如此,他并不后悔:“论文发表已经一年多了,我还没有看到有人给我提供令人信服的论据,比如为什么独角兽不是真正推理的例子。”
这并不是说他对这个大问题有直接的答案,尽管他的回答揭示了他希望给出的答案类型。 “什么是人工智能?”布贝克问我。 “我想向你明确指出,问题可以很简单,但答案可能很复杂。”
“有很多简单的问题我们仍然不知道答案。其中一些简单的问题是最深刻的,”他继续说道。 “我把这个问题与生命起源同等重要。宇宙的起源是什么?我们从哪里来?”
机器中只有数学
在本德成为人工智能推动者的主要对手之前,她作为两篇有影响力的论文的合著者在人工智能领域留下了自己的印记。 (她喜欢指出,与《火花》 论文和许多其他备受瞩目的论文不同,这两篇论文都经过了同行评审。)第一篇论文是与德国萨尔大学计算语言学家Alexander Koller 共同撰写的。于2020 年撰写并出版,题为“迈向自然语言理解(NLU)”。
“对我来说,这一切都是从与计算语言学界其他人关于语言模型是否真正理解任何东西的辩论开始的,”她说。 (理解,就像推理一样,通常被认为是人类智力的基本组成部分。)
他们通过思想实验阐明了自己的观点。想象一下两个说英语的人被困在邻近的荒岛上,他们通过水下电缆互相发送短信。现在想象一下,一只对英语一无所知但擅长统计模式匹配的章鱼被包裹在电缆中并开始监听这些消息。章鱼变得非常擅长猜测哪些单词会跟在其他单词后面。情况变得如此之好,以至于她相信她仍在与邻居聊天,这时电缆中断了,并开始回复其中一名岛民的消息。 (如果你没有注意到,这个故事中的章鱼是一个聊天机器人。)
与章鱼交谈的人会被欺骗一段时间,但这能持续吗?章鱼能理解通过电缆传输的内容吗?
想象一下,现在岛民说她建造了一个椰子弹射器,并要求章鱼也建造一个并告诉她它的想法。章鱼做不到这一点。由于不了解信息中的文字在现实世界中的含义,它无法遵循岛民的指示。也许它猜到了答案:“好吧,好主意!”岛民可能会认为这意味着与她交谈的人理解她的信息。但如果是这样的话,她就在没有意义的地方看到了意义。最后,想象一下岛民受到熊的攻击并通过电缆发出求救信号。章鱼应该如何处理这些话呢?
本德和科勒认为,这就是大型语言模型的学习方式以及它们的局限性。 “这个思想实验表明,这条道路不会引导我们找到一台能够理解任何东西的机器,”本德说。 “与章鱼的交易是,我们给它训练数据,两个人之间的对话,就是这样。但是当出现意外情况时,它无法处理,因为它不理解。”
本德的另一篇著名论文《火花》 强调了她和她的合著者认为制造大型语言模型的公司忽视的一系列危险。这些危害包括制作模型的巨大计算成本及其对环境的影响;该模型根深蒂固的种族主义、性别歧视和其他辱骂性语言;以及建立一个可以“任意拼接语言形式”序列的系统的危险……根据它们如何组合的概率信息来欺骗人们,而不参考任何含义:随机鹦鹉”。
谷歌高级管理层对这篇论文并不满意,由此产生的冲突导致本德的两位合著者蒂姆尼特·格布鲁和玛格丽特·米切尔被迫离开公司,他们领导着人工智能道德团队。这也让“随机鹦鹉”成为大语言模型的流行贬义词,而本德则直接卷入了这个互相谩骂的漩涡。
对于本德和许多志同道合的研究人员来说,最重要的是,这个领域已经被烟雾和镜子所笼罩:“我认为他们被引导去想象那些可以自己思考、可以为自己做决定的实体,并最终成为可以对其决定负责的东西。”
作为一贯的语言学家,本德现在甚至不想使用不带引号的“人工智能”一词。 “我认为这是一个创造自主思考实体幻觉的概念,这些实体能够为自己做出决定并最终对这些决定负责,”她告诉我。最终,对她来说,这是来自大型科技公司的流行语,分散了人们对许多相关危害的注意力。 “我现在正处于其中,”她说。 “我关心这些问题,过度炒作正在阻碍进展。”
非凡的证据?
阿奎拉·阿卡斯(Agera y Arcas)称本德这样的人为“人工智能否认者”,暗示他们永远不会接受他认为理所当然的观点。本德的立场是,非凡的主张需要非凡的证据,而我们目前没有这样的证据。
但有人正在寻找证据,当他们发现证据清晰无误时——
—无论是思维的火花、随机鹦鹉还是介于两者之间的东西——之前,他们宁愿置身事外。这可以被称为观望阵营。 正如在布朗大学研究神经网络的 Ellie Pavlick 对我所说:“向某些人暗示人类智能可以通过这类机制重现,对他们来说是冒犯。” 她补充道,“人们对这个问题有着根深蒂固的信念——这几乎感觉像是宗教信仰。另一方面,有些人则有点上帝情结。因此,对他们来说,暗示他们就是做不到也是无礼的。” Pavlick 最终持不可知论态度。她坚持自己是一名科学家,会遵循科学的任何导向。她对那些夸张的主张翻白眼,但她相信有一些令人兴奋的事情正在发生。“这就是我和 Bender 及 Koller 意见不同的地方,”她告诉我,“我认为实际上有一些火花——也许不是 AGI 级别的,但就像,里面有些东西是我们未曾预料到会发现的。” 问题在于,要找到对这些令人兴奋的事物及其为何令人兴奋的共识。在如此多的炒作之下,很容易变得愤世嫉俗。 当你听取像 Bubeck 这样的研究人员的意见时,你会发现他们似乎更为冷静。他认为内部争执忽视了他工作的细微差别。“同时持有不同的观点对我来说没有任何问题,”他说,“存在随机鹦鹉现象,也存在推理——这是一个范围,非常复杂。我们并没有所有的答案。” “我们需要一套全新的词汇来描述正在发生的事情,”他说,“当我谈论大型语言模型中的推理时,人们会反驳,原因之一是它与人类的推理方式不同。但我认为我们无法不称之为推理,它确实是一种推理。” 尽管他的公司 Anthropic 是目前全球最炙手可热的 AI 实验室之一,且今年早些时候发布的 Claude 3——与 GPT-4 一样(甚至更多)获得了大量夸张赞誉的大型语言模型,但 Olah 在被问及如何看待 LLMs 时仍表现得相当谨慎。 “我觉得关于这些模型能力的很多讨论都非常部落化,”他说,“人们有先入为主的观念,而且任何一方的论证都没有充分的证据支撑。然后这就变成了基于氛围的讨论,我认为互联网上的这种基于氛围的争论往往会走向糟糕的方向。” Olah 告诉我他有自己的直觉。“我的主观印象是,这些东西在追踪相当复杂的思想,”他说,“我们没有一个全面的故事来解释非常大的模型是如何工作的,但我认为我们所看到的很难与极端的‘随机鹦鹉’形象相调和。” 这就是他的极限:“我不想超越我们现有证据所能强烈推断出的内容。” 上个月,Anthropic 发布了一项研究的结果,研究人员给 Claude 3 做了相当于神经网络的 MRI。通过监测模型运行时哪些部分开启和关闭,他们识别出了在模型展示特定输入时激活的特定神经元模式。 例如,当模型接收到金门大桥的图像或与之相关的词汇时,似乎就会出现一种特定的模式。研究人员发现,如果他们增强模型中这一部分的作用,Claude 就会完全沉迷于这座著名的建筑。无论你问它什么问题,它的回答都会涉及这座桥——甚至在被要求描述自己时,它也会将自己与桥联系起来。有时它会注意到提及桥梁是不恰当的,但又忍不住会这样做。 Anthropic 还报告了与尝试描述或展示抽象概念的输入相关的模式。“我们看到了与欺骗和诚实、谄媚、安全漏洞、偏见相关的特征,”Olah 说,“我们发现了与寻求权力、操纵和背叛相关的特征。” 这些结果让我们迄今为止最清晰地看到了大型语言模型的内部情况。这是对看似难以捉摸的人类特质的一种诱人一瞥。但它真正告诉我们什么呢?正如 Olah 所承认的,他们不知道模型如何处理这些模式。“这是一个相对有限的画面,分析起来相当困难,”他说。 即使 Olah 不愿意具体说明他认为像 Claude 3 这样的大型语言模型内部究竟发生了什么,显而易见的是,这个问题对他来说为什么重要。Anthropic 以其在 AI 安全方面的工作而闻名——确保未来强大的模型会按照我们希望的方式行动,而不是以我们不希望的方式(在行业术语中称为“对齐”)。弄清楚当今模型的工作原理,不仅是如果你想控制未来模型所必需的第一步;它也告诉你,首先你需要对末日情景担心多少。“如果你认为模型不会有很强的能力,”Olah 说,“那么它们可能也不会很危险。” 为何我们难以达成一致 在 2014 年 BBC 对她职业生涯回顾的一次采访中,现年 87 岁的有影响力的认知科学家 Margaret Boden 被问及她是否认为有任何限制会阻止计算机(或者她所谓的“锡罐子”)去做人类能做的事情。 “我当然不认为原则上存在这样的限制,”她说,“因为否认这一点就意味着人类的思维是靠魔法发生的,而我不相信它是靠魔法发生的。” 博登回顾了当前繁荣期的早期阶段,但这种我们能否成功的摇摆不定反映了数十年来她和她的同僚们努力解决的难题,这些难题正是今天研究人员也在努力克服的。AI 作为一个雄心勃勃的目标始于大约 70 年前,而我们至今仍在争论哪些是可实现的,哪些不是,以及我们如何知道自己是否已经实现了目标。大部分——如果不是全部的话——这些争议归结为一点:我们尚未很好地理解什么是智能,或者如何识别它。这个领域充满了直觉,但没有人能确切地说出答案。 自从人们开始认真对待 AI 这一理念以来,我们就一直卡在这个问题上。甚至在此之前,当我们消费的故事开始在集体想象中深深植入类人机器的概念时,也是如此。这些争论的悠久历史意味着,今天的争论往往强化了自一开始就存在的分歧,使得人们更加难以找到共同点。 为了理解我们是如何走到这一步的,我们需要了解我们曾经走过的路。因此,让我们深入探究AI的起源故事——这也是一个为了资金而大肆宣传的故事。 人工智能宣传简史 计算机科学家 John McCarthy(约翰·麦卡锡) 在 1955 年为新罕布什尔州达特茅斯学院 (Dartmouth College)的一个暑期研究项目撰写资助申请时,被认为提出了“人工智能”这一术语。 McCarthy 和他的合著者写道:“该研究基于这样一个假设进行:学习的每一个方面或智力的任何其他特征原则都可以被如此精确地描述,以至于可以制造一台机器来模拟它。我们将尝试找出如何让机器使用语言、形成抽象概念、解决目前仅限于人类的问题,并自我改进。” 他们想让机器做到的这些事情——Bender 称之为“充满憧憬的梦想”——并没有太大改变。使用语言、形成概念和解决问题仍然是当今 AI 的定义性目标。傲慢也并未减少多少:“我们认为,如果精心挑选的一组科学家一起工作一个夏天,就能在这些问题中的一个或多个方面取得显著进展。”他们写道。当然,那个夏天已经延长到了七十年。至于这些问题实际上现在解决了多少,仍然是人们在网络上争论的话题。 然而,这段经典历史中常被忽略的是,人工智能差点就没有被称为“人工智能”。 不止一位 McCarthy 的同事讨厌他提出的这个术语。据历史学家 Pamela McCorduck (帕梅拉·麦考达克)2004 年的书《思考的机器》引用,达特茅斯会议参与者及首台跳棋电脑创造者 Arthur Samuel(亚瑟·塞缪尔) 说:“'人工'这个词让你觉得这里面有些虚假的东西。”数学家 Claude Shannon(克劳德·香农),达特茅斯提案的合著者,有时被誉为“信息时代之父”,更喜欢“自动机研究”这个术语。Herbert Simon(赫伯特·西蒙)和 Allen Newell(艾伦·纽厄尔),另外两位 AI 先驱,在之后的多年里仍称自己的工作为“复杂信息处理”。 但 McCarthy 想要一个能捕捉到他愿景雄心壮志的名称。将这个新领域称为“人工智能”吸引了人们的注意——以及资金。别忘了:AI 既性感又酷。 除了术语,达特茅斯提案还确定了人工智能相互竞争的方法之间的分裂,这种分裂自此以后一直困扰着该领域——Law 称之为“AI 的核心紧张关系”。 McCarthy 和他的同事们想用计算机代码描述“学习的每一个方面或其他任何智力特征”,以便机器模仿。换句话说,如果他们能弄清楚思维是如何工作的——推理的规则——并写下来,他们就可以编程让计算机遵循。这奠定了后来被称为基于规则或符号 AI(现在有时被称为 GOFAI,即“好老式的人工智能”)的基础。但提出硬编码规则来捕获实际、非琐碎问题的解决过程证明太难了。 另一条路径则偏爱神经网络,即试图以统计模式自行学习这些规则的计算机程序。达特茅斯提案几乎是以附带的方式提到它(分别提到“神经网络”和“神经网”)。尽管这个想法起初似乎不太有希望,但一些研究人员还是继续在符号 AI 的同时开发神经网络的版本。但它们真正起飞要等到几十年后——加上大量的计算能力和互联网上的大量数据。快进到今天,这种方法支撑了整个 AI 的繁荣。 这里的主要收获是,就像今天的研究人员一样,AI 的创新者们在基础概念上争执不休,并陷入了自我宣传的旋涡。就连 GOFAI 团队也饱受争吵之苦。年近九旬的哲学家及 AI 先驱 Aaron Sloman 回忆起他在 70 年代认识的“老朋友”明斯基和麦卡锡时,两人“强烈意见不合”:“Minsky 认为 McCarthy 关于逻辑的主张行不通,而 McCarthy 认为 Minsky 的机制无法做到逻辑所能做的。我和他们都相处得很好,但我当时在说,‘你们俩都没搞对。’”(斯洛曼仍然认为,没有人能解释人类推理中直觉与逻辑的运用,但这又是另一个话题!) 随着技术命运的起伏,“AI”一词也随之时兴和过时。在 70 年代初,英国政府发布了一份报告,认为 AI 梦想毫无进展,不值得资助,导致这两条研究路径实际上都被搁置了。所有那些炒作,实质上都未带来任何成果。研究项目被关闭,计算机科学家从他们的资助申请中抹去了“人工智能”一词。 当我在 2008 年完成计算机科学博士学位时,系里只有一个人在研究神经网络。Bender 也有类似的记忆:“在我上大学时,一个流传的笑话是,AI 是我们还没有弄清楚如何用计算机做的任何事。就像是,一旦你弄明白怎么做了,它就不再神奇,所以它就不再是 AI 了。” 但那种魔法——达特茅斯提案中概述的宏伟愿景——仍然生机勃勃,正如我们现在所见,它为 AGI(通用人工智能)梦想奠定了基础。 好行为与坏行为 1950 年,也就是 McCarthy 开始谈论人工智能的五年前,Alan Turing(艾伦·图灵) 发表了一篇论文,提出了一个问题:机器能思考吗?为了探讨这个问题,这位著名的数学家提出了一个假设测试,即后来闻名的图灵测试。测试设想了一个场景,其中一个人类和一台计算机位于屏幕后,而第二个人类通过打字向他们双方提问。如果提问者无法分辨哪些回答来自人类,哪些来自计算机,Turing 认为,可以说计算机也可以算是思考的。 与 McCarthy 团队不同,Turing 意识到思考是一个很难描述的事情。图灵测试是一种绕开这个问题的方法。“他基本上是在说:与其关注智能的本质,不如寻找它在世界中的表现形式。我要寻找它的影子,”Law 说。 1952 年,英国广播公司电台组织了一个专家小组进一步探讨 Turing 的观点。图灵在演播室里与他的两位曼彻斯特大学同事——数学教授 Maxwell Newman (麦克斯韦尔·纽曼)和神经外科教授 Geoffrey Jefferson(杰弗里·杰斐逊),以及剑桥大学的科学、伦理与宗教哲学家 Richard Braithwaite(理查德·布雷斯韦特)一同出席。 Braithwaite 开场说道:“思考通常被认为是人类,也许还包括其他高等动物的专长,这个问题可能看起来太荒谬了,不值得讨论。但当然,这完全取决于‘思考’中包含了什么。” 小组成员围绕 Turing 的问题展开讨论,但始终未能给出确切的定义。 当他们试图定义思考包含什么,其机制是什么时,标准一直在变动。“一旦我们能在大脑中看到因果关系的运作,我们就会认为那不是思考,而是一种缺乏想象力的苦力工作,”图灵说道。 问题在于:当一位小组成员提出某种可能被视为思考证据的行为——比如对新想法表示愤怒——另一位成员就会指出,计算机也可以被编程来做到这一点。 正如 Newman 所说,编程让计算机打印出“我不喜欢这个新程序”是轻而易举的。但他承认,这不过是个把戏。 Jefferson 对此表示赞同:他想要的是一台因为不喜欢新程序而打印出“我不喜欢这个新程序”的计算机。换言之,对于 Jefferson 来说,行为本身是不够的,引发行为的过程才是关键。 但 Turing 并不同意。正如他所指出的,揭示特定过程——他所说的苦力工作——并不能确切指出思考是什么。那么剩下的还有什么? “从这个角度来看,人们可能会受到诱惑,将思考定义为我们还不理解的那些心理过程,”Turing 说,“如果这是正确的,那么制造一台思考机器就是制造一台能做出有趣事情的机器,而我们其实并不完全理解它是如何做到的。”相关视频
-
室外篮球哪个牌子好耐打(篮球爱好者必备的室外球品牌推荐)(室外篮球哪个牌子好用)
2023-09-07
-
NA2012季后赛热火对凯尔特人(2012热火vs凯尔特人揭幕战)
2023-09-07
-
世预赛积分榜2021(世预赛积分榜亚洲出现要求)
2023-09-07
-
坎特雷拉公主攻略(坎特雷拉故事)
2023-09-07
-
谢尔盖米林科维奇萨维奇
2023-09-07
-
最新黎巴嫩球联赛排名及球队析(黎巴嫩篮球联赛比分)
2023-09-07
-
郎平的事迹介绍及其他名人的成功经历(郎平的名人故事)
2023-09-07
用户评论
这3亿字长文让我对人工智能有了更深的理解,以前总觉得是个遥不可及的东西,现在感觉离我们的生活越来越近了。
有8位网友表示赞同!
读完这篇长文,我对人工智能的概念清晰多了,但是这3亿字真的看不完啊,有没有简版的?
有8位网友表示赞同!
哇,3亿字!我看了前几章就感觉头都大了,人工智能那么复杂吗?
有5位网友表示赞同!
这篇长文确实详实,但是感觉有点枯燥,有没有人能总结一下重点呢?
有15位网友表示赞同!
这3亿字让我对人工智能有了全新的认识,简直打开了新世界的大门!
有15位网友表示赞同!
3亿字?我都不敢想象,这样的文章对普通读者来说太有挑战性了。
有9位网友表示赞同!
长文虽好,但3亿字也太夸张了吧,我估计读完要花一辈子了。
有8位网友表示赞同!
读完这篇长文,我对人工智能有了更全面的认识,感觉受益匪浅。
有11位网友表示赞同!
这3亿字让我对人工智能的发展历史有了详细了解,太感谢作者了。
有8位网友表示赞同!
人工智能这么复杂,看完这篇长文我都有点怀疑自己能不能理解了。
有20位网友表示赞同!
3亿字啊,简直是个巨作!我要慢慢消化,争取吃透每个细节。
有5位网友表示赞同!
这篇长文让我对人工智能的未来充满了期待,希望人工智能能给我们带来更多便利。
有20位网友表示赞同!
读完这篇长文,我对人工智能的担忧也减少了,原来它并没有我想象的那么可怕。
有20位网友表示赞同!
3亿字!这简直是对耐心和毅力的考验,我要挑战一下自己。
有17位网友表示赞同!
这篇长文让我对人工智能有了更深的敬畏之心,感觉它真的是个神奇的领域。
有13位网友表示赞同!
虽然3亿字有点吓人,但我还是决定挑战一下,看看自己能不能读完。
有18位网友表示赞同!
读完这篇长文,我对人工智能有了更全面的了解,感觉之前的认知太肤浅了。
有17位网友表示赞同!
这3亿字的长文让我对人工智能有了全新的看法,原来它可以如此神奇。
有5位网友表示赞同!
3亿字啊,简直是个知识宝库!我要珍藏这篇长文,反复研读。
有11位网友表示赞同!