中文屋测试

  哲学家将人工智能的观点分为两类,弱人工智能和强人工智能,分别认为机器智能只是一种模拟智能和机器确实可以有真正的智能。两种观点进行了争论,出现了不少巧妙的假想实验,其中中文屋子就是反驳强人工智能的一个有名的假想实验。
  1980年,哲学家西尔勒提出了名为“中文屋子”的假想实验,模拟图灵测试,用以反驳强人工智能观点。主要说明某台计算机即使通过了图灵测试,能正确的回答问题,它对问题仍然没有任何理解,因此不具备真正的智能。
  西尔勒假设:西尔勒(也翻择成塞尔)博士(扮演计算机中的CPU)在一个封闭的房子里,有输入和输出缝隙与外部相同。输入的是中文问题,而他对中文一窍不通。房子内有一本英语的指令手册(相当于程序),从中可以找到相应的规则。他按照规则办事,把作为答案的中文符号写在纸(相当于存储器)上,并输出到屋子外面。这样,看起来他能处理输入的中文问题,并给出正确答案(如同一台计算机通过了图灵测试)。但是,他对那些问题毫无理解,不理解其中的任何一个词!
      塞尔设想有一个小屋,没有窗户,门上有一个狭缝,屋里有一个人叫丹玛,丹玛只说英语,她不懂汉语,屋里还有一串特别的符号,丹玛也有空白纸和一些英语写的指示,指示告诉丹玛:当带有符号的一张纸从门缝里塞进来时,看看你手中那一串符号,当你发现手中的符号与递进来纸上的符号相符合,迅速把符号抄写到空白纸上,并通过门缝塞出去。屋外人注意到:用中文写的问题送进去,用中文写的正确答案送出来,看起来好象屋里的人懂中文,也就是说丹玛通过了所谓的“图林测验”,但实际上丹玛和里面的系统都不懂中文,丹玛只是根据符号的形式来操纵符号,她并不知道这些符号的意义。

      塞尔的论证是以“强人工智能”(强AI)为假想敌的,这种观点认为“计算机不仅仅是人们用来研究心灵的一种工具,而且,被恰当编程的计算机本身就是一个心灵”。他对于强AJ的反驳则可以体现为这样的一个三段论:
  • 大前提:每一种真正的心灵/智能都必须有能力在符号与对象之间建立起一种语义关系; 
  • 小前提:这种语义关系无法仅仅通过任何一台被恰当编程的计算机所获取; 
  • 结论:计算机本身不可能具有真正的心灵,因此强AJ无法实现。
       塞尔认为此三段论的大前提的真是毫无争议的,因此整个推论的有效性就取决于小前提的真。正是为了保证其真,他才提出了CRA:假设一个说英语的被试被关在一个房间内,他与一个屋外的检测者通过彼此传递字条来交流。现在已知:(1)字条本身仅仅只能用汉语写成;(2)被试不懂汉语;(3)检测者懂汉语;(4)检测者不知道被试是否懂汉语,因此他的任务便是通过与被试的交谈证实或证伪这一点;(5)在屋中,被试无法获得汉一英词典或英一汉词典,他只能够得到:(a)一个装满卡片的盒子——其中的每张卡片都写着一个汉字(卡片是如此之多,以至于没有遗漏任何一个已知的汉字);(b)一本以英语为工作语言的规则书,以便告诉读者在面对由哪些汉字所构成的问题时,他应当如何从盒子中取出相应的汉字来构成合适的应答。在以上这五个条件被给定的情况下,再假设被试的确通过了“汉语语言测试”——也就是说,测试者的确无法辨识被试的言语行为与一个懂汉语者的言语行为之间的差别——那么,被试是否就真的因此懂得了汉语呢?塞尔认为答案显然是否定的,因为被试在“汉字屋”中所做的,只是在根据规则书机械地搬运符号而已。他根本无法将任何一个汉语表达式翻译成英语。
     那么,CRA与强AI之间关系是什么呢?概而言之,“汉字屋系统”(Chinese Room System,以下简称为CRS)中的规则书就对应于计算机的程序,被试就对应于计算机中的CPU,每一个被递送进来的问题就对应于计算机的“输入”,每一个被递送出去的答案就对应于计算机的“输出”。在这样的情况下,就像一个能够恰当应答所有汉语问题的被试依然无法建立针对任何一个汉语表达式的语义关系一样,一台计算机即使能够恰当地应答出所有的用人类语言提出的问题,它也无法建立针对任何一个人类语言表达式的语义关系。其道理似乎也很简单:被试与CPU实际上只能做同一种性质的工作——机械地搬运符号。
     从AJ思想史的角度来看,整个CRA可以被视为对于“图灵测试”②所做的某种颠倒:在图灵看来,只要检测者无法在言语行为方面找出一台机器与一个人之间的差别,我们就能够将“智能”赋予机器;而在塞尔看来,即使我们没有找到这种差别,机器依然是无心的,因为它依然缺乏建立恰当语义关系的能力。从这个角度看,只要人工智能的专家们按照“程序设计”这种“图灵一冯·诺伊曼模式”来制造计算机,强AI就永远不会实现。
 
Comments