第17部分(第1/4 页)
是人工智能么,或者说它们就一定没有思维能力么?”
因蒂克斯一边说,一边捡了根树枝在地上画着,天隐扛着第12包泥经过的时候扫了一眼,发现是一个树形示意图。
“既然测试者本身是平均水准,那就意味着他很有可能不会理解高水准的人的逻辑,就像世界上没有多少人能理解爱因斯坦的相对论,但是你不能说爱因斯坦不具有智能,所以第二类agi和可能会出现的asi很有可能根本无法通过图灵测试,仅仅是因为,他们的思考方式不能被人所理解。”
说到这里,因蒂克斯轻轻地叹了一口气,好像曾经亲身经历过一般,而后在地上的树形图上画了个圈,转向了另一个分支,“其次,图灵测试的内容是极其多变且复杂的,而且很多问题完全没有令人信服的评判标准,比如,我和希露德同时掉海里了,亲爱的首领,你会救谁?”
这也叫问题?肯定是救希露德嘛!不过看因蒂克斯双眼里都充满了期待,天隐觉得有些话还是不说得好,而且,天隐脑中突然冒出一个很奇怪的想法,“如果我不会游泳,相救也救不了……”
啪!因蒂克斯用树枝狠狠地在地上抽了一下,“就是这个!我就是这个意思!或许测试者原本的意思,是想看看被测试对象在面对此类问题的时候会做出怎样的道德判断,然而他忽略了一点,就是很多看似是道德方面的问题,其实是可以用理性进行解答的。”
“根据休谟的观点,理性从本质上来看是无能的,其唯一的目的就是对观念进行比较,它无法区分行动中的善与恶;道德判断虽然可以区分行动的善恶,但是却不是基于某种确定的观念,而是建立在印象的基础上,换言之,这是一种因人而异的‘感觉’。”
“也就是说,提出道德问题的测试者,很大程度上是希望知道被测试对象是不是拥有‘感觉’,而不是真的想知道该对象究竟抱持何种观念。当测试人得到的是用理性判断出的答案时,比如你刚刚说的‘不会游泳,没法救人’,他们就会不自觉地产生一种负面的主观倾向,这种倾向,往往会令被测试对象无法通过测试。”
到这里天隐还是可以理解的,所以点了点头,示意因蒂克斯继续。
“这就是图灵测试的第二个缺陷,即测试人往往在不自觉的情况下偷换了测试目的——将检验被测试对象具不具有思考能力,替换成了被测试对象是不是像人一样思考,前者才是判断人工智能的标准,后者嘛,千年来世界各地的哲学家们都没法确切地定义,理论上,处于平均水准的测试人是不可能给出不存在的定义的。”
“那要是找不同水准的测试人来呢?”虽然觉得被誉为“人工智能之父”的图灵应该不会想不到,但是天隐还是提出了自己的想法,一方面,如杨所说,培养一个什么问题都能思考的大脑,另一方面第14包泥显得格外沉重,天隐需要转移一下注意力以缓解疲劳。
“即便扩大样本范围,根据性别、年龄、人种、职业、智力水平、道德水准的差异,找出足够多的人组成测试团队”,因蒂克斯每说一个词就在地上画一个小圈,而后画了一个大圈将所有的小圈都包括进去,又在大圈的下面标注了一个词——“human(人类)”。
“这个测试团队显然没有脱离人类的范畴,能够得出的结论,简而言之,就是被测试对象是否具有能被人理解的思考能力。除此之外,被测试对象是否拥有感觉,是否具有伦理观,是否有道德感,无法做出判断,因为人类本身就没有一个统一的道德与伦理标准。”
“而这,虽然不能完全说是图灵测试的缺陷,但也确确实实是图灵测试不能消弭的一个问题——无法令人信任人工智能,我们越是测试,越是发现无法测试的东西太多;我们越是发觉自己无知,就越是恐惧;