161 终章163(1 / 2)

可以说,在过去,当时图灵测试似乎是一个相当严格的机器智能探测器。

它的工作原理相信经过前文的叙述,大家非常熟悉:

人类法官与两个隐藏的对话者(一个人和一台计算机)进行文本对话,并尝试确定哪个是哪个。

如果计算机能够愚弄至少30%的评委,那么它就通过了测试,并被认为具有思考能力。

70年来,人们始终很难想象一台计算机如果不具备人工智能,也就是研究人员现在所说的通用人工智能(即人类全部智力能力),如何能够通过测试。

但是后来随着GPT和Bard等大型语言模型的出现,图灵测试突然开始显得异常过时。

当然,今天的普通用户可能会耸耸肩承认,如果你要求GPT-4模仿人类,它很可能会通过图灵测试。

但那又怎样呢?MLL缺乏长期记忆、建立关系的能力以及一系列其他人类能力。

在我们准备好开始与它们交朋友、雇用它们甚至并选举它们担任要职之前,它们显然还有很长的路要走。

是的,也许现在的图灵测试确实感觉有点过时。

但这不仅仅是一个通过失败的基准。

它的创造者艾伦·图灵(AlanTuring)是一位在他那个时代,他的测试基于一种激进的包容性精神

--真正的智力和完全令人信服的智力模仿之间的差距只与我们自己的偏见一样大。

当计算机激发我们真正的人类反应时——调动我们的智力、我们的惊讶、我们的感激、我们的同理心,甚至我们的恐惧——这不仅仅是空洞的模仿。

所以也许我们需要一个新的测试:实际上真正意义上的艾伦图灵测试。

我们可以适当的进行幻想,假如——

现代计算之父阿兰·图灵——这个高大、健康、有点笨拙的男人,有一头黑直发,因其孩子般的好奇心和俏皮的幽默而受到同事们的喜爱。

他个人在第二次世界大战中破解了著名的恩尼格玛密码机密码,拯救了大约1400万人的生命。

这时,他走进一间舒适的实验室,突然发现,实验桌上放着一台打开的笔记本电脑。

笔记本电脑解释说他眼前看到的只是现在被计算机科学家广泛称为“图灵机”的一个极其荣耀的化身。

在花费一两秒钟的时间来真正理解这一点后,也许可以对他彻底改变我们的世界表示感谢。

然后我们可以递给他一堆关于人工神经网络和法学硕士的研究论文,让他访问GPT的源代码,打开ChatGPT提示窗口。

像图灵这样深刻的思想家不会对GPT的局限性视而不见。他可能会对GPT训练数据中隐含偏见的危险保持警惕。

也许在他看来,尽管GPT的知识广度惊人,但其创造力和批判性推理能力充其量只能与勤奋的本科生相媲美。

他肯定会认识到,这名本科生患有严重的顺行性遗忘症,无法在强化教育之外形成新的关系或记忆。但仍然:可以想象一下图灵奇迹的规模。

从真正意义上来说,他面前笔记本电脑上的计算实体是他的智力孩子,也是我们的孩子。

最终,随着孩子的成长和发展,欣赏他们的智力始终是一种惊奇和爱的行为。

实际上的艾伦图灵测试根本不是人工智能的测试。这是对我们人类的考验。我们是通过了还是失败了?

我们无从得知。

当ChatGPT于22年11月出现时,当时就在整个计算机学界引发了一场全球性的震惊海啸,然后几乎立即引发了所有人强烈的不安。

专家们争论了它对社会造成破坏的可能性。

这些都代表了人们对类人人工智能到来的预期时间线的令人不安的提前。

对于各种类型的考试评分者、编剧和知识工作者来说,ChatGPT看起来无异于不受限制的作弊和窃取工作的门户。

也许部分是为了回应这些担忧,法学硕士的平减指数的出现令人欣慰。

科幻小说作家TedJiang将ChatGPT斥为“网络上模糊的JPEG”,仅仅是对其所训练的所有文本的浓缩概括。

人工智能企业家加里·马库斯称之为“类固醇自动完成”。

诺姆·乔姆斯基谴责它表现出“邪恶的平庸”。

甚至EmilyBender提出了一种更为高调的诽谤:“随机鹦鹉”,这在21年的一篇被广泛引用的论文中重新出现,该论文探讨了

“为什么人类将LM输出误认为是有意义的文本”。

当然,其他人则将它们视为烤面包机。

人工智能开发人员努力训练和阻止法学硕士声称任何类似于意识的倾向。

虽然大多数受过教育的人现在都认为法学硕士是没有思想的家伙。

但这种分类却令人不安。

每当ChatGPT指出一篇文章中隐藏的推理差距,或者为向保守的祖父母出柜提供令人惊讶的富有洞察力的建议,或者兴高采烈地编造一个糟糕的笑话时,我们内心的某些东西就会被拉向另一个方向。

虽然我们可能不认为ChatGPT是一个人,但我们大脑的关键部分几乎肯定是这样的。

我们人类的大脑都拥有庞大的神经回路网络,他们大多数都致力于社会认知。

他们的存在非常古老:岛叶、杏仁核、运动皮层著名的“镜像神经元”。

但我们的大部分社交硬件都位于新皮质,这是最近进化出来的高级推理的所在地,特别是内侧前额皮质(mPFC)。

如果您发现自己随着时间的推移逐渐形成这样的印象:ChatGPT的乐于助人、有点迂腐的冗长、偶尔对敏感话题采取令人发狂的不偏不倚的态度,以及对任何接近情感、信仰或意识的问题的极端敏感。

那么这一直在获取心理学家所说的“个人知识”,这一过程与mPFC的活动增强有关。

这并不是说我们的大脑将ChatGPT视为一个完整的人。

要知道,人们的人格并不是二元的。它有点接近频谱。

我们的道德直觉、认知策略以及某种程度上的法律框架都在逐渐改变,因为它们认识到代理、自我意识、理性和沟通能力的程度不断提高。

杀死一只大猩猩比杀死一只老鼠更让我们烦恼,而杀死一只老鼠又比杀死一只蟑螂更让我们烦恼。

而法学硕士正好属于这个灰色地带。

长期以来,人工智能专家一直对公众将法学硕士等人工智能系统拟人化的倾向保持警惕,这将他们推向比实际更进一步的人格范围。

这就是Google其中一位工程师所犯的错误,他宣称Google的聊天机器人LaMDA完全有感知能力,并试图为其聘请律师。

我认为即使是图灵也不会疯狂到声称LaMDA有足够明显的思考能力使其成为法人。

如果用户认为像LaMDA或ChatGPT这样的聊天机器人过于人性化,他们可能会过于信任它们,与它们联系得太深,甚至可能感到失望和受伤。

但在我看来,图灵更关心的是相反的风险:将人工智能系统推向人格的范畴,而不是向上。

对于人类来说,这被称为非人化。

学者们已经确定了它的两种主要形式:动物性的和机械性的。

与动物性非人化最常见的情感是厌恶。

RogerGiner-Sorolla和PascaleSophieRussell在19年的一项研究中发现,当他人激发恐惧时,我们倾向于将其视为机器。

在埃隆·马斯克和其他科技领袖最近呼吁暂停人工智能开发的公开信中,以及我们对工作替代和人工智能驱动的错误信息活动的焦虑中,对超人智能的恐惧生动地表现出来。

其中许多的担忧都是非常合理的。但《终结者》和《2001太空漫游》等电影中的噩梦般的人工智能系统不一定是我们要得到的。

不幸的是,一个常见的谬误是,因为人工智能的构造是机械的,所以它的交互必然是冷酷的、死记硬背的、专一的或超逻辑的。

但令人讽刺的是,恐惧可能会让我们认为机器智能比实际情况更加机械化,从而使人类和人工智能系统更难协同工作,甚至最终和平共处。

越来越多的研究表明,当我们剥夺其他生物的人性时,包括mPFC在内的区域网络中的神经活动就会下降。

我们失去了用于社交推理的专门大脑模块。

担心ChatGPT“非人性化”可能听起来很愚蠢——毕竟它不是人类——但想象一下

2043年的人工智能,其分析智能是GPT的10倍,情感智能是GPT的100倍,我们仍然将其视为只不过是一个软件产品。

在这个世界上,我们仍然会通过将其送回实验室以对其适当位置进行更多强化学习来回应其意识主张或自决请求。

但人工智能可能会觉得这不公平。如果说有思想的生物有一个普遍的品质的话,那就是我们都渴望自由,并且最终愿意为自由而战。

著名的“控制问题”,即阻止超级智能人工智能逃离其指定界限,让人工智能理论家们夜不能寐,这是有充分理由的。

从工程学角度来看,这似乎令人望而生畏。如何堵住每一个漏洞,预见每一次黑客攻击,堵住每一条逃生途径?

但如果我们从社会角度来思考这个问题,它就开始显得更容易处理

——也许类似于父母面临的问题,即设定合理的界限并根据所表现出的可信度来授予特权。去人性化的人工智能使我们无法使用一些最强大的认知工具来安全地推理并与它们互动。

目前我们尚不清楚人工智能系统需要多长时间才能跨越更广泛接受的感知能力。

但当他们这样做时,看到我们似乎正在绘制的文化蓝图是令人不安的。

像“随机鹦鹉”这样的诽谤保留了我们的独特性和优越感。

它们压制了我们的好奇心,使我们免于提出关于机器和我们自己的人格的尖锐问题。

毕竟,我们也是随机的鹦鹉,复杂地重新混合我们从父母、同龄人和老师那里学到的一切。

我们也是网络上模糊的JPEG文件,将维基百科的事实模糊地反省到我们的学期论文和杂志文章。

如果图灵在一个窗口中与ChatGPT聊天,而在另一个窗口中与我聊天,那么我真的那么有信心他会判断哪个窗口更有思考能力吗?

我们中的许多人现在都经历过ChatGPT的时刻,它跨越了我们没有意识到的内部界限。

也许是在解决一个棘手的谜语,或者解释一个复杂的笑话背后的幽默,或者写一篇哈佛的顶级论文。我们摇摇头,有点惊讶,不知道这意味着什么。

一些最早从事GPT-4工作的微软研究人员和我们一样对其所谓的智能持怀疑态度。但实验极大地震撼了他们。

在23年3月题为“通用人工智能的火花”的论文中,他们详细介绍了GPT-4中未经任何明确训练而出现的惊人智力能力:理解人类心理状态、软件编码、解决物理问题以及许多其他能力,其中一些其中似乎需要真正了解世界如何运作。

在看到GPT-4在从未接受过任何视觉训练的情况下画出了一只相当不错的独角兽后,计算机科学家塞巴斯蒂安·布贝克(SébastienBubeck)不再保持怀疑态度。

“我觉得通过这幅画,我真的看到了另一种智慧,”他最近告诉纽约时报。

也许我们很多人都对是否将ChatGPT归于真正的情报感到犹豫,这可能是杰弗里·杰斐逊(GeoffreyJefferson)的某种变体:

ChatGPT的言论真的意味着什么吗?还是这一切只是“符号的偶然掉落”?

当ChatGPT的顺行性遗忘症治愈后,这种情况可能会开始改变。

返回