《超级智能:方法、危险、战略》和《我们最后的发明:人工智能及人类时代的终结》两本书的作者牛津大学哲学教授尼克 博斯特伦(Nick Bostrom)与詹姆斯 巴拉特(James Barrat)认为,“现在我们人类就像一群摆弄着一颗危险炸弹的无知孩童。”即便是出于好意而创造的人工智能,它仍有犯下种族灭绝罪行的倾向。
詹姆斯 巴拉特认为:“如果没有小心谨慎的制衡指令,一个有着自我意识、不断自我完善并追寻目标的系统将发展到在我们看来非常荒谬的程度,以完成它的目标。”
不论如何,未来对于人工智能的制造,一定要将不得伤害人类设定为其最重要的行事规则。美国科幻小说家艾萨克 阿西莫夫(Isaac Asimov)在他的机器人相关小说中为机器人设定了行为准则,也就是机器人三定律(Three Laws of Robotics)——
法则一,也是最为重要的一条法则:机器人不得伤害人类,也不得因不作为而使人类受到伤害;
法则二,机器人必须服从人类的命令,除非违背第一法则;
法则三,在不违背第一及第二法则的前提下,机器人必须保护自己。
执教于印第安纳大学等学术机构的认知科学教授道格拉斯 郝夫斯台特(Douglas Hofstadter)在其《哥德尔、艾舍尔、巴赫——集异璧之大成 》一书中称,在获取知识的过程中,计算机必须以和人类差不多的方式整合知识。
不管这个愿望在人类追逐利益的冲动面前是多么无力,但对人工智能的担心是显然的。
么,这一天何时到来,谷歌公司的工程总监雷 库兹威尔(Ray Kurzwell)认为,到2029年时,计算机将变得比人类更智能。不过,稍微令人安慰的是,他在《灵魂机器时代》(The Age of Spiritual Machines)中称,人工智能还是会受制于人类。
百度CEO李彦宏对人工智能的发展速度同样乐观,他在今年上半年透露,“百度内部有一个项目叫做‘百度大脑’,它现在的智力水平相当于两到三岁孩子的水平。随着计算成本的飞速下降和计算能力的飞速提升,我们完全可以想象有一天电脑可以越来越接近人脑的智力。”
机器人三定律好经典
设定了行为准则
原理非常类似
在获取知识的过程中
小心谨慎的制衡指令
机器自我意识,不会衰老
小心谨慎的制衡指令
不朽的生命 就够了
计算机必须以和人类差不多的方式整合知识