第13章 云霭重重 (3 / 8) 首页

字体:      护眼 关灯

上一章 目录 下一章

第13章 云霭重重 (3 / 8)
        无从体会,用近现代哲学的逻辑语言也无法表述。

        后来随着基因工程的发展,又添加了基因序列限制,但是新政权治下出现的生化人,他们算不算是人类?和动物相比,也许生化人优先级更高,但如果一个生化人和一个自然人呢?又该怎样加以区别?

        逐渐上升到思辨层面的定义标准,开始让程序员们无所适从。

        后来他们渐渐认识到,在阿西莫夫时代,机器人都是按照冯·诺伊曼思想来设计的,那时的机器人是个确定系统,只需加载一条指令,它们就输出一个确定的结果。所以冯·诺伊曼式的程序设计,是无法实现人工智能的,那样需要对所有的事情,都给出冗长而繁杂的定义。

        但这不是最糟糕的,最让人难过的是,当人生的各种可能性作为分母,个体卑微的努力就会趋向于无穷小。

        没有人能够对所有的事情做出定义,哪怕穷尽时间也不能。

        发现这个问题后,人工智能的设计就发生了变化,转变为试图模拟人脑的工作状态。

        现今最优秀的人工智能都是基于遗传算法,它是模拟大脑的工作方式。为此付出的代价,就是人类再也无法理解人工智能是怎样工作的了,正如人类直到今天,都没能理解脑的工作方式一样。

        所有的研究,都变成对输出进行观察,然后形成一个经验感觉。反而机器的内部工作,变成了一个暗箱。暗箱之外,只有系统的概率输出,是能够确定的。

        这个演变,就像是罗杰·彭罗斯的预言:人脑的运作和认知方式,或许是量子式的。

        由于当时对于量子理论的研究还不够完善,他只能简单阐述了人脑工作方式,和量子状态的近似之处。然而,这几乎像是对于现代人工智能设计的预言:如果想要机器人,能够理解人类社会的工作模式,最有效的做法,恐怕是让它们变成生命体。

        此外还有对于优先级的判断,阿西莫夫确实提到过,凌驾于三大定律之上的第0定律:机器人不得伤害人类整体,也不得因为不采取行动而使人类整体受到伤害。

        但一个机器人又该如何判断,人类整体会不会受到伤害?毕竟个体受到的伤害是直接而显而易见的。

        换句话说,我们给机器人制定了程序,让它以此为基础判断人类的整体利益,那么这个基础程序是不是正确,又有谁来判断呢?还有,我们真的愿意让机器来左右人类的命运吗?即使人类自取灭亡?

        内容未完,下一页继续阅读

更多完整内容阅读登陆

《墨缘文学网,https://wap.mywenxue.org》
加入书签我的书架


上一章 目录 下一章