天才一秒记住【畅想小说网】地址:http://www.cxtra.net
发给机器人的运动装置,而我自己对这些事情一点也不知道。
我是机器人腹中的小矮人,但与传统的小矮人又不一样,因为我并不知道发生的事情。
除了处理符号的规则,其他事情我一概不知。
根据这种情况,我认为机器人根本没处在目的状态中,它完全是根据线路和程序而四处移动。
还有,在我执行程序的过程中,我也没有处在相应的目的状态中。
我只不过是在执行对形式符号进行处理的形式指令。
(3)大脑模拟器回答(伯克利分校和马萨诸塞理工学院)。
“假设我们设计了一个程序,这个程序并不表现像香克中文字条那样的关于世界的信息,但是,它却模拟了母语是汉语的人在理解汉语故事并回答汉语问题时大脑突触上神经原激活的实际顺序。
计算机将汉语故事和有关问题作为输入而摄入,然后,它模拟真正中国人的大脑在处理这些故事时的形式结构,再将汉语答案作为输出而给出。
我们甚至还可以这样设想,这台计算机不只有一串程序,而是有一套程序在同时进行运算,就像人脑在处理自然语言时可能出现的那种实际状况一样。
在这种情况下,毫无疑问,我们不得不承认计算机理解了故事。
如果我们不承认这一点,那不就否认了中国人能理解这些故事吗?在突触的层次上,计算机程序与中国人大脑程序究竟将有或可能会有什么区别呢?”
在反驳这个观点之前,我想扯开去说一句,任何人工智能(或机能主义,等等)的拥护者都会觉得这个观点十分别扭。
我认为,强人工智能论的中心论点是,我们没有必要为了知道心灵如何活动而去了解大脑如何活动。
据我所知,强人工智能论的基本假设是这样的;有一个对形式元素作计算处理的心理运算层次,它构成了心理活动的实体,它还可以在各种不同的大脑过程中表现出来,就像任何计算机程序都可以通过不同的计算机硬件来实现一样。
根据强人工智能论的假设,心灵之于大脑如同程序之于硬件,因此,我们不研究神经生理学也能了解心灵。
如果我们必须在了解大脑之后才能了解人工智能,那我们何必还要研究人工智能?然而,即使我们对大脑活动了解得如此清楚,对理解能力的了解却依然雾霭重重。
为了使大家理解这一点,我们想象这样一种情形:思维实验中那个只会一门语言的人手里摆弄的不是语言符号,而是一套带阀门的水管。
当他得到汉字符号之后,首先查一下用英语写成的程序,看看他应该打开和关闭哪几个阀门。
每一根水管相当于中国人大脑中的一个突触,整个水管系统被配备成这样一种状态:当所有恰当的神经原都激活后,也就是说所有正确的阀门都打开后,汉语答案就会从这一串水管的尽头喷涌而出。
那么,在这样一个系统里,理解能力又在哪里呢?整个系统把汉语作为输入而摄入,并在模拟中国人大脑突触的形式结构之后,又把汉语答案输出来。
然而,此人肯定不理解汉语,水管也不会懂汉语,但有人却说这个人加上这些水管便会产生理解能力,我觉得这种说法十分荒唐。
如果我们相信这种说法,那么,请记住,从原则上讲,此人能够使水管的形式结构内在化,他也能够凭借想象来进行所有的“神经原激活”
活动。
大脑模拟器说的一个问题在于模拟了大脑的一些无关痛痒的东西。
如果模拟的只是突触上神经原激活顺序的形式结构,那么,就不能模拟大脑的关键,即大脑的因果特性,也就是大脑生产有目的状态的能力。
形式特征并不能代表因果特性,这一点已有水管例子证明了:我们可以把形式特征从有关的神经生理的因果特性中删除。
(4)综合回答(伯克利分校和斯坦福大学)。
“上述三种回答单独还构不成对中国人小屋反例的反驳以及对思维实验的反证,但如果你将它们综合起来,那将更使人信服、更有力得多。
让我们想象一下,如果装在机器人脑袋里的是一个呈大脑形的计算机,如果计算机的顺序具有人类大脑的所有突触,如果机器人的行动酷似人类的行为,那么,这样一个东西就不只是一台具有输入和输出的计算机了,而应该被看做是一个统一的系统。
在这种情况下,毫无疑问,我们不得不认为它是有目的的。”
只要我们对这种东西仅仅知道这么多,那么在这种情况下,我们完全有理由接受这个不容反驳的假设,即这个机器人是有目的的,对此我完全表示同意。
本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!