按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!
人工智能研究领域并不算重大突破。目前机器与人的最大的差距在于,计算机还
不具有人那样的“举一反三”的能力,也就是学习和创造的能力。已经有不少人
认识到,“学习”算法在数学上就是一个“优化”算法,但为了让计算机自己学
习,它必须知道什么是“优”。或者说,计算机不只知道“怎样做”,还需要知
道“应该做什么”,否则是谈不上什么“智慧”的。这种“优、劣”、“好、
坏”、“善、恶”被意识所感知,才是所谓的“情感”,意识在学习中起着重要
的作用。在真正意义上关于情感和意识的研究才刚刚起步,所以研制“具有人的
情感、思维和智慧”的机器人还有漫长的路要走。不过一旦机器能够用人脑的原
理和机制进行思维,超过人就不难了,毕竟和神经元相比,电子器件的速度要快
好几个数量级(千百万倍)。假如两个人的思想方法完全一样,只是甲想任何问
题都比乙快一倍,在旁观者看来,会觉得甲比乙更“聪明”,尽管乙不知道的甲
也照样不知道。
问:
现在在技术上已经可以把硅芯片埋入人脑,尝试治疗某些疾病。将来是否可
能在视、听神经中埋入芯片,记录人一生的见闻乃至思想,就可以在此人死后使
其在机器人中复生?
答:
仅仅纪录人的所见所闻不足以推测其思想,因为有相同经历的人未必有相同
的思想。纪录计算机的“思想”比较容易,只要纪录“总线”上的信息,再知道
CPU的规格,计算机“想”什么就全都清楚了。遗憾的是人脑中没有这样一条
“总线”,人的思想是分散在几万亿个神经元突触中的,探测起来极为困难。所
以记录思想的设想虽然在原理上是可能的,但技术上目前还没有找到突破口。
问:
我感到最可怕的是,计算机的禀性与人性已达到高度的一致,在它与人对弈
屡次失败后,或人的指令惹怒了它使它恼羞成怒时,它会把对手、把指令它的人
杀死。这样的报道已屡屡出现,是否真实还有待验证。但也可以说明,计算机的
人性和智能已经与真实的人性越来越由兼容性了。
答:
如果这有这样的事,应该说计算机是“灭绝人性”了。下棋下输了就杀人,
能说是“人性”吗?稍微懂得一点计算机的常识,就可以看出这一定是三流报纸
的假新闻。计算机要能杀人,首先得有手才行(内行的术语叫“执行机构”),
但下棋的计算机是不需要手的,只要在屏幕上显示棋局即可。我也看到了这个新
闻,说计算机把电通到键盘上,把对手电死了。但要使这样的事可能发生,首先
需要设计导电的键盘(现在的键盘都是塑料的,不导电),然后再把强电通到键
盘上,还要加一个开关,并且让计算机控制这个开关。这一切都是没有手的计算
机做不到的,只有人能做到。所以如果真有这样的事,也只能是“人杀人”,而
不是“计算机杀人”。机器人有手,所以原则上可以杀人,工业机器人“杀人”
的事件确实出现过,但那是机器人的控制系统受到干扰,发生误动作,把操作人
员按在墙上挤死了,事件的性质相当于普通机器的事故,机器人本身并没有杀人
的“动机”。
问:
现在的机器人还没有任何“动机”,但是将来的那些比人还聪明的机器人就
不同了。到那时候,科学作家艾萨克&;#183;阿西莫夫于1950年在其著作《我,机器人》
中提出的著名的为我们后来人奉为圭臬的机器人三定律就可能会过时了。机器人
三定律是:第一定律,机器人不得伤害人,也不得在人受到伤害时袖手旁观;第
二定律,机器人应服从人的一切命令,但不得违反第一定律;第三定律,机器人
应保护自身的安全,但不得违反第一、第二定律。这三个定律更有可能被机器人
单方面撕毁协议。因为一旦机器人与人一样有了感情、思维、推理和智慧,甚至
比人更聪明,就会比人更工于算计和自私。这样,下面的一个在激烈竞争时代的
流行故事就得改写。
原先的版本是两个人在森林里走路,遇到了一只老虎。一个蹲下来系鞋带,
旁边的人说这时候系鞋带还有什么用啊?系鞋带者说,我系好鞋带只要能跑过你
就有用了。但是机器人与人在森林里散步,也遇到了一只老虎。机器人就会思考,
什么机器人不得伤害人,见鬼去吧!在利益面前,先保护自我。机器人也不用系
鞋带,它首先就会把人一把揪住,送到虎口,说,你先凑合着吃这个人吧,我再
给你找个更可口的,说完就自己先逃走了。
答:
这种说法存在一个误区:认为越聪明的人越自私,这是毫无根据的。在我们
日常生活中也得不出这样的“规律”,那些最自私的人恰恰不大聪明,不知道与
人合作才能获得更大的利益。生物进化的自然选择规律使得生物都是自私的基因
的表现,所以一切生物的本性都是一样自私的,尽管如此,生物的智力却有天壤
之别,这也说明自私与智力并不相关。
机器人三定律这个说法不恰当,这三条不是自然界的“定律”,也不是机器
人与人签订的“协议”,而是我们制造机器人时给机器人规定的行为准则,也可
以看成是一组价值观。当然这个准则只是一般而论,如果有人想设计机器人用于
战争,恐怕就要改成“不伤害自己人,要伤害敌人”之类了。这类机器人非常危
险,设计者当然会加上多重的安全措施,以免它掉转枪口打自己,正如对军人要
训练他绝对服从命令一样。
机器人也会有某种程度的“自私”作为学习时的评价准则,例如尽量节约能
量。但是与人类比较起来,其自私的程度会逊色很多。这样估计有几条理由:第
一,人是进化的产物,是自私的基因的表现,其生存的意义就是生存本身,而机
器人是人是人设计的,其生存的意义是为人而存在的,是获得更多的知识。第二,
人是动物,受到很多生物学的制约,但是机器人则不存在这种制约。例如,生命
属于人只有一次,所以人(以及一切动物)都会尽最大努力保护自己的生命,
“我”是唯一的;但对于机器人而言,这些约束却不存在,机器可以自由的复制
自己,就像孙悟空拔一把毫毛变出成千上万的自己,到任务完成后再合成一个,
把各自学到的知识收集到一起;人的头脑不可能和****分离,机器人却可以把脑
袋放在某个计算机里,通过宽带网控制现场的身体,身体“遇难”了,再换一个
就是,如同我们换一件衣服,甚至可以根据不同的任务选用不同结构的“身体”;
机器人的“我”的概念与人类有很大不同,人类的“我”是一生不变的,不可分
合的,机器人的“我”可以是根据任务临时组建的,由于机器人的知识可以共享,
所有各个机器人获得的新知识都放在一个巨大的共同知识库中,当需要完成特定
任务时,可以按照任务需要从知识库中选取知识和经历,组建一个机器人,任务
完成后把所学的新知识、新经验加入知识库,“我”到此终结。这样可以随时产
生,随时消亡的“我”,当然没有太自私的理由。
所以那个老虎的故事就没什么道理,机器人的身体是金属和塑料制品,老虎
不会吃,没有理由逃走;即使损坏了,也可以很方便的修复或更换;而它如果想
出好方法来救人,就成为可贵的知识,被载入知识库,使自己的一部分得到永生,
何乐而不为。
问:
如果智能机器人不受人类控制了,怎么办?它们有可能会篡夺人类在地球上
的统治地位,把人类也当成一般的动物看待。
答:
“控制”这个词可以从不同层面上理解。拿空调机做例子,如果一个空调机
没有任何自动控制功能,只有一个开关,我