字体:大 中 小
护眼
关灯
上一章
目录
下一章
第13章 云霭重重 (3 / 8)
无从体会,用近现代哲学的逻辑语言也无法表述。
后来随着基因工程的发展,又添加了基因序列限制,但是新政权治下出现的生化人,他们算不算是人类?和动物相比,也许生化人优先级更高,但如果一个生化人和一个自然人呢?又该怎样加以区别?
逐渐上升到思辨层面的定义标准,开始让程序员们无所适从。
后来他们渐渐认识到,在阿西莫夫时代,机器人都是按照冯·诺伊曼思想来设计的,那时的机器人是个确定系统,只需加载一条指令,它们就输出一个确定的结果。所以冯·诺伊曼式的程序设计,是无法实现人工智能的,那样需要对所有的事情,都给出冗长而繁杂的定义。
但这不是最糟糕的,最让人难过的是,当人生的各种可能性作为分母,个体卑微的努力就会趋向于无穷小。
没有人能够对所有的事情做出定义,哪怕穷尽时间也不能。
发现这个问题后,人工智能的设计就发生了变化,转变为试图模拟人脑的工作状态。
现今最优秀的人工智能都是基于遗传算法,它是模拟大脑的工作方式。为此付出的代价,就是人类再也无法理解人工智能是怎样工作的了,正如人类直到今天,都没能理解脑的工作方式一样。
所有的研究,都变成对输出进行观察,然后形成一个经验感觉。反而机器的内部工作,变成了一个暗箱。暗箱之外,只有系统的概率输出,是能够确定的。
这个演变,就像是罗杰·彭罗斯的预言:人脑的运作和认知方式,或许是量子式的。
由于当时对于量子理论的研究还不够完善,他只能简单阐述了人脑工作方式,和量子状态的近似之处。然而,这几乎像是对于现代人工智能设计的预言:如果想要机器人,能够理解人类社会的工作模式,最有效的做法,恐怕是让它们变成生命体。
此外还有对于优先级的判断,阿西莫夫确实提到过,凌驾于三大定律之上的第0定律:机器人不得伤害人类整体,也不得因为不采取行动而使人类整体受到伤害。
但一个机器人又该如何判断,人类整体会不会受到伤害?毕竟个体受到的伤害是直接而显而易见的。
换句话说,我们给机器人制定了程序,让它以此为基础判断人类的整体利益,那么这个基础程序是不是正确,又有谁来判断呢?还有,我们真的愿意让机器来左右人类的命运吗?即使人类自取灭亡?
内容未完,下一页继续阅读
更多完整内容阅读登陆
《墨缘文学网,https://wap.mywenxue.org》
上一章
目录
下一章