声明:本文来自于微信公众号 量子位(ID:QbitAI),作者:量子位,授权站长之家转载发布。
大模型已经具备知觉?
AI教母李飞飞的最新回答旗帜鲜明:No。
她和斯坦福逻辑学家、哲学家John Etchemendy刚刚发表一篇合著文章,标题很直接:
不,现在的AI没有知觉
No, Today’s AI Isn’t Sentient. Here’s How We Know
文章中还写道:
我们还没有实现有知觉的人工智能,更大的语言模型也无法帮助我们实现这一目标。
我们不会在下一个版本的ChatGPT中偶然发现知觉。
这与图灵奖得主Yann LeCun的最新观点不谋而合。LeCun的言论还要更犀利一些:
自回归大语言模型不足以达到人类的智力水平(甚至达不到猫的智力水平)。
两位大拿同时发声,使得围绕AI知觉的争议话题再度发酵,不少网友已经第一时间加入论战,be like:
那么,在聆听你的观点之前,我们先留下一些思考的时间,一起来看看李飞飞文章具体内容——
不,现在的AI不具备知觉
通用人工智能(AGI)是一个术语,用于描述在人类所能展示的智能的所有维度上,至少和人类具备同等水平的人工智能体。
之所以需要添[]加“G”,是[]因为由AI驱[]动的系统激增[],但它们只专[]注于单一或极[]少数任务。I[]BM的“深蓝[]”可以击败世[]界冠军卡斯帕[]罗夫,但即使[]房间着火,它[]也不能理解是[]时候停止下棋[]了。
现在,通用智[]能有点像一个[]神话,至少如[]果我们自命不[]凡地认为我们[]拥有它的话。[]
在动物世界中[]可以找到大量[]智能行为的例[]子,其结果远[]远好于人类在[]类似任务上取[]得的成果。这[]么说吧,我们[]的智力不是完[]全通用的,但[]足够通用,足[]以使我们在大[]多数环境中完[]成自己想做的[]事。
如果我们饿了[],我们会去找[]当地的超市。[]如果房间着火[],我们会去找[]逃生出口。
通用智能的基本特征之一是“感知力”,即拥有主观体验的能力。知觉是通向通用智能的关键一步。
随着ChatGPT的发布,大语言模型(LLM)时代已经拉开序幕。这立即引发了关于这些算法是否真的具备知觉的激烈争论。
基于LLM的[]人工智能可能[]具备的知觉,[]不仅引发了媒[]体的狂欢,也[]深刻地影响到[]了全球范围内[]对如何监管A[]I的态度。
最突出的观点[]是,“有知觉[]的AI”的出[]现可能对人类[]极其危险,会[]带来“人类灭[]绝”、“生存[]危机”。
毕竟,有知觉[]的AI可能会[]发展出自己的[]欲望,人类无[]法保证它们不[]与我们发生冲[]突。
这篇短文源于一次群聊,目的是反驳LLM可能已经获得知觉的论点。这并不完整全面。我们的主要观点是反对“有知觉的AI”阵营提供的最常见的论点。
为什么有些人相信AI已经获得知觉
在过去几个月里,我们俩与AI领域的许多同事进行了激烈的辩论和对话,其中包括与一些最著名AI科学家的一对一对谈。
AI是否具有知觉一直是一个焦点话题。他们中的一小部分人坚信事实确实如此。以下是其中一位代表的观点:
人工智能是有知觉的,因为它具有主观体验。主观体验是意识的标志,特点是声称知道自己所知道或经历的事情。比如,当一个人说“我有吃完一顿大餐后感到幸福的主观体验”时,这个人是具备意识的。
其实没有什么[]直接证据能证[]明主观体验。[]但如果你传达[]了这一点,从[]表面上看,你[]就是有意识的[]。
现在,让我们[]对大模型应用[]相同的“规则[]”。就像没办[]法知道一个人[]究竟在想什么[],我们无法访[]问大模型的内[]部状态,但可[]以质疑它的主[]观体验。
现在大模型可以明确地分享“主观体验”,比如看到红色是什么感觉。因此,我没有理由怀疑它不具备意识,就像我没有理由怀疑一个人没有意识一样。
为什么他们错了
这乍一看很有道理,但这个论点是错误的。两种情况完全不可同日而语。
当你说“我饿[]了”时,你正[]在经历饥饿,[]而我判断你的[]主观体验是基[]于大量的事实[]证据。
首先,是你说[]的话,也许还[]有一些其他行[]为证据,比如[]肚子的咕咕声[]。
其次,没有相[]矛盾的证据,[]比如你其实刚[]吃完一顿四菜[]一汤的大餐。[]
最后,也是最[]重要的一点,[]你我拥有一样[]的肉体,需要[]周期性地进食[]进水,冷时冷[],热时热,等[]等。
而大模型呢?[]它可以产生一[]串音节说“我[]饿了”,但相[]似之处到此为[]止。大模型没[]有身体,根本[]就不会挨饿。[]它不具备饥饿[]所需要的生理[]机能。
所有的感觉—[]—饥饿、疼痛[]、坠入爱河,[]都是大模型根[]本不具备的生[]理状态导致的[]结果。因此大[]模型不可能对[]这些状态有主[]观体验。换句[]话说,它不可[]能有感知力。[]
大模型是在芯[]片上编码的数[]学模型,并非[]如人类一样的[]具体存在。它[]没有需要进食[]、饮水、繁殖[]、经历情感、[]生病并最终死[]亡的“生命”[]。
理解人类如何[]生成单词序列[],和大模型如[]何生成相同序[]列之间的深刻[]差异非常重要[]。
当我说“我饿[]了”时,我是[]在报告我感知[]到的生理状态[]。
当LLM生成“我饿了”这个序列时,它只是在生成当前提示中单词序列最可能的补全。这是概率补全。
我们还没有实现有知觉的人工智能,更大的语言模型也不会让我们实现这一目标。
如果我们想在[]AI系统中实[]现知觉,我们[]需要更好地了[]解知觉到底是[]如何在生物系[]统中产生的。[]
我们不会在下个版本的ChatGPT中偶然发现知觉。
One More Thing
本文翻译主要由Claude3完成,于是人类编辑也把这个话题抛给了Claude3。
Claude3表示:李飞飞说得对。
评论区
提示:本文章评论功能已关闭