关于哲学原理、科技哲学、社会哲学的讨论
人类能创造出有意识的机器人吗?
人类能创造出有意识的机器人吗?

人类能创造出有意识的机器人吗?

有一个思想实验,说医学科学越来越发达,关节坏了,可以用人造关节替代,心脏坏了,可以用人造心脏代替,眼睛坏了,可以用人造眼球代替,未来有一天,也许我们所有器官都可以用人造器官代替,就一个大脑,顶着一身的工业制成品,甚至我们脑细胞坏了,我们也可以硅元器件来代替,随着脑细胞一个个被替换,我们整个大脑都可以用工业元件件来替代,到那时,“我”去哪儿了?我就是一段程序,运行在一堆工业元件中的机器幽灵。

     现代人工智能研究,严重挑战人类伦理。尤其是图灵实验,将意识定义为一种外观特征:如果一个真人和一台机器的回答,对检验者来说,完全做到无法区分,那么机器就具有人类意识。这是一个实用主义的定义,我们试想,笛卡尔说“我思故我在”,我是有意识的,这无庸质疑,我思想、我怀疑,那我一定是存在的,但他人是有意识的吗?我们不能掰开他人的头脑去看看,我们只能通过他人的言谈举止表征特征来判断他们是否和我一样,也是有意识的。如是一台机器和他人做的一样好,“它”在我的眼里,就应当视为意识、会思考、具有自我的人。这在逻辑完全站的住脚。

     那么机器可以象人一样思考吗?可以象人一样具有自我意识吗?这个问题其实有很多相关变种问题:机器是否能象人一样自我进化?自我意识能否象一段程序一样,复制出N多个自我?自我能否加载到激光中,象光一样实现星际穿越?或者直接生存在机器中,实现永生?

我们觉得是非常荒谬的念头,在现代人工智能、量子力学的奇思妙想中,没有什么不可想象的——某种量子力量大伽宣称,当你看月亮时月亮就塌缩成月亮的样子,当你不看月亮时,月亮就是弥散态,月亮就不存在,还有炒得火热的弦论,128个维度奇幻世界,孪生子另一个世界等等,这些我们以后再说——整个现代科学变成一种玄学,信马由缰,却缺乏最基本的哲学常识——不得不吐槽一下现代哲学,全是垃圾,不解决实际问题,变成文献考古学,或东拉西扯胡扯学,一点实用价值都没有。

我们思考这样一个问题,机器人和人在最本质的区别是什么?正确的回答是,人类是连续的,而机器人是间断的。所谓人的连续性,是指物质结构在时空结构上的无限延伸,人由器官组织,器官由分子团组成、分子团由大分子组织,大分子由小分子组成,分子由原子组成,每一层都是自然进化,层层设计的结果,并形成一个来源于自然、与自然呼吸相通、层层进化的连续体,在时间上如此,在空间上也是如此,当自然发生变化,只要这个变化在人类进化能力承受范围内,人类就总能通过生理和假体(各种外在的工具)的进化,适应这一新的变化,找到解决和适应这一变化的途径和方式,因而人的进化和可塑性是无限的,它根植于生命这种物质结构在时空结构上的无限延伸,根植于人与自然的连续性。

反之,机器人是间断的,它是寄生在人能力基础上的,是人假体的延伸,如果人的能力不发展,机器的能力也不发展,即使是进化,机器人的进化也是设定在人的控制的方式方法的范围内,因而它的进化是一种被阉割的进化,无论它进化的能力有多强,它都不能超越最初设计它的人所设定的能力范围,都不能超越最初编辑它的语言限定的结构。就物质结构来说,机器人的基本物质形态是原子金属,或者用于皮肤的某种高分子聚合物,但它都只有一层,接着就是光电功能、整体能力等,比起人类来,简直差的太远了。

如果人类与机器人对垒,竞争没有限制,人类就总可以找到机器人的弱点,或者说死穴,这个在机器人被创造出那一刻就被永久封印的断点,机器人不可逾越的天花板,或者设计它的逻辑结构,或者设计它的语言,无论它有多么强的进化能力,迭代多少次,都是在它最初逻辑结构、语言之上的能力,它的低层逻辑永远存在断点。而相比人类,并不存在这种低层逻辑的断点,所有的,包括组织人类行为的本能、模因都是可以变的,只要环境需要,任何基础结构都可以改变,甚至我们可以设想完全不是由碳基所组成的人类,只要他与自然关联是连续的,是亿万年来生命进化的结果,他就与机器人处于完全不同的逻辑结构中,他就是有意识的,机器人就是无意识的。

断点和连续的差别落实到人与机器人行为特征上,就是人会不断捅破行为的天花板,超越规则去实现目的,而机器人永远也突破不了行为的天花板,无法超越人类为它规定行为规范。就好象下围棋,如果规定竞争者谁都不能违反规则,人类永远无法战羸机器人,但可以违反规则前提下,机器永远也战胜不了人类——科学家的短视在于,他把限定条件下竞争当成真实的竞争,而无限定条件的竞争才是真实的竞争,这是真实的进化和机器的拟化的根本区别。

因此,图灵实验只是工具性的拟化,而不是真的对意识的标准定义——除非它绑定在真实的人类行为上,如用互联网直接搜索真实人类的回答,如果那样,有意识也不是它,而是它背后的真实的人——事实上,不可能存在终极的图灵机,即行为举止完全与真实人不可区分的机器人,或者说有意识的机器人,因为它们建立在完全不同的逻辑上,且人的逻辑与机器的逻辑是跟随创造的、跟随进化的,他能创造出它来,他就能识别它,区分它。

这其实产生了我们第二个论点,意识定义的随附性,所谓意识定义的随附性,简单的说,就是能创造出如此精密机器的大脑,一定是一个比它更为精密、复杂的“机器”,如果一台机器我们定义它为有意识,那么创造它的就只能是具有超级意识功能的智慧生命,相对于具有超级意识功能的智慧生命而言,那台所谓有意识的机器,在他们看来,只有一台普通的机器而已。

这也就是说,有意识还是无意识其实是相对主体而言的,是自我认知的一种表征,当你的自我意识很低的时候,你的有意识的标准也很低,当你自我意识程度很高时,你的有意识的标准也很高,但无论如何,自我意识的主体都不可能创造出,达到主体认定的的具有自我意识标准的机器。人不可能创造出达到自身等同的对象物,意识上的等同的对象物,随附的就是物质上等同的对象物,如果人脑是由某一阶的脑细胞精密组织而成,那要完整复制它的所有功能,创造它的主体只能是更高阶脑细胞的精密组织而成的更高端的智慧生命,而对于那些智慧生命,意识的标准是以他们自身为标准,相对于他们来说,人类这一阶脑细胞创造的“自我意识”只是昆虫的本能,昆虫有意识吗?

因此,我想说的是,我们永远找不到与我们自身意识水平等同的的机器人,我们不行,未来智慧生命也不行,因为我们要创造它,就需要更高的智慧水平,而更高智慧水平又会抬高我们对自我意识的定义水平,这是一个耗散的自然规律,永远达不到。

这从底层上堵死了人类创造自我的通道,人类真的就无法创造象人类一样智力水平、有意识的机器人吗?也不是不可能,只能创造的方法直接会消灭这个问题本身。

其实意识定义的随附性这个概念是一个更宏大的原理的分支,这是一个有关于对象、观察工具、理论之间协变关系的原理,我们称之为极限原理,它是这样定义的:任意两个运动事物的变化率,如果在现有观察工具看来,是差异最小的,则对现有观察者看来,它们之间必有一共同的本质。

这句话什么意思,翻译成白话来说就是,如果现象一样,本质就一样,在现有观察工具看不出差异来了,那本质也就没什么差异,即使是两个运动物体,一个巨快,一个巨慢,但变化率上精确重合在一条线上,且在现有观察工具与差别最小,则推动两个物体变化的必定是同一种力量。

这个道理好理解,关键是对它进行否定理解时就有意思了:所谓一共同的本质,其实就是同一理论、同一因果解释,不同的观察水平下解释是不一样的,不同的观察工具也制约着实际应用它的层次和范围,当你的应用层次不那么高的时候,观察工具也不高,理论也很粗糙,在你所应用范围内,理论所展现的因果解释是有效的,那它就是正确的,事物的本质就如因果解释那样,理当如此;只有当你的观察工具更精确了,理论进行重构,有了新的因果解释,本质才会不一样,而这时你应用的空间也会发生变化,在新的应用环境下建立它的因果解释,因而科学的定义应当始终于应用环境、观察工具和理论解释三者协变的,只要三者形成闭环,能运用到实际生产生活中,这就是科学的解释。当然也是要被推翻的解释,就象黑格尔那句名言:存在就是合理的。反过来,否定它也是合理。

这跟我们要讨论的问题是什么关系吗?有,如果我们要创造一个跟我们人类意识思维相同的机器人,如何才能创造出来,这个问题我们可以转换成另一个更简单的问题:如果有一个运动的变化物,我们是否能找到一个与它变化曲线精确一致,而又不同的物呢?就象一辆汽油驱动的汽车,当其他条件都一样时,能否有其他驱动力能与它的变化率精确同步?答案是不可能,观察工具不改变,本质就不会改变,因果解释就不会改变,无论你用什么方式精确与标的物变化率同步,最后都会发现你只有使用与标的物相同的、同一的因果机制,或同一本质,才会达到同一现象。

尽管这看似一循环论证,但它证明了定义是自相关的,你用自我意识去创造自我意识,只有用与自我意识相同的因果机制才能实现,也就是说,你要创造一个有自我意识的机器人,最好材料就是跟人体细胞、DNA相同的材料去创造,而这创造出来的是一个真正人呢,还是一个机器人呢?这又值得我们深思了。

除非是一个超越人类许多阶的的超级智慧生命,在他们的世界中,观察工具、应用环境和理论解释都不一样了,他们基于不同本质认知,可以创造出与今天人类认知的自我意识相同的机器人,而材料又与今天人类细胞、DNA不同,这样机器人,我们无法区分它与人类的任何区别,但对于超级智慧生命来说,它与我们区别是一目了然的,因为对他们来说,那根本不是自我意识,定义从本质上已经改变了。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注