小九直播篮球

小九直播篮球

对于智能机器人可能会背叛人类要保持警惕但也不必过分担忧

时间: 2024-04-01 19:18:15 |   作者: 小九直播篮球

产品详情

  1997年8月29日,人工智能防御系统“天网”发起了核战争,30亿人死亡,劫后余生的人称这一天为“审判日”,除了重建家园,他们还面临着一场与“天网”统领的机器人的战争——《终结者2审判日》

  这是1991年电影《终结者2审判日》中背景的描述,由于人类太过信任机器人,把军事防御和攻击的权利都交给了机器人,结果机器人发生了反叛,开始疯狂杀戮人类。

  表现这种对于人工智能机器人背叛人类的担忧的电影,还有《机械公敌》《黑客帝国》等,这种担忧通过影视作品传递给我们,再加上我们平时耳闻目睹的AI发展的新闻,以及各方学者和研究人员对于机器人反叛的可能性的讨论,所以现在也形成了对AI反噬人类的担心的思潮。

  表面上看过去,今天的人工智能蒸蒸日上,无人驾驶已经上路,阿法狗战胜了围棋冠军柯洁,还有那些在火星上活动的无人探测器,似乎人类所做的工作,机器人都能胜任,并且能做的更好;而人类无法从事的工作,机器人也可以做。人工智能再这样发展下去,机器人取代人类似乎已成为必然。

  其实AI发展迅速是个错觉,这二三十年来人工智能发展的非常缓慢,不会比已经停摆多年的基础科学快多少。早在90年代的时候,就已经有了无人战斗机;1997年就已经有了人机对弈,IBM公司研制的“深蓝”战胜了国际象棋大师卡斯帕洛夫;99年索尼推出了AIBO机器狗,能打滚、摇尾,会撒娇,会自动跑至专用充电器自行充电;而那些在火星上活动的无人探测器,有很多一部分也是90年代送上去的。现代人工智能的进展,并没脱离上世纪90年代的范围。二十多年过去了,人工智能一直停留在“弱人工智能”阶段打转,还没进入“强人工智能”时代。

  “强人工智能”观点认为:真正的人工智能,是要完全像人类一样,懂得创造,而不是只会模仿人类,以及只会执行程序命令。比如人类可以创造出象形文字,并改良成汉字,而当下的机器人却只能记住这些字,无法创造新的汉字,勉强“创造”,也只能是毫无美感的火星文;人类可以创造出地球上本来没有的飞机、火车等工具,而机器人只可以使用这些工具;人类的思想非常宏伟,可以思考经济学、哲学等,并集结成论文,分享给同类,而机器人暂时是无法像人类那样思考,并写就论文的,要到达这一地步,恐怕不知还要多少年。所以“弱人工智能”时代还得持续很多年,而且即使未来某一天“强人工智能”型机器人出来了,人类也是有制衡的手段的。

  早在50年代人工智能起步的阶段,阿西莫夫就先天下之忧而忧,担心总有一天AI会反噬人类,在50年代末的科幻小说《我,机器人》中,提出了著名的“机器人三大定律”,作为研发出的机器人一定要遵守的守则:

  第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。

  这三大定律从人类利益出发,让机器人遵守杀戒,被人广为认可和接受,后来有识之士又补充了一条新的定律:

  第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。

  补充这一定律的原因主要在于,虽然机器人不能伤害人类,但除恶即是为善,如果有人作恶,不杀不足以阻止的话,机器人还是能开杀戒的。

  这四大定律奠定了现代人工智能研究的的伦理基础,即研究人员在研发“强人工智能”型机器人时,一定要遵守这四大定律,才有办法釜底抽薪的杜绝后患,避免造出来的机器人反噬。

  但其实这里有个问题,就是“强人工智能”型机器人既然跟人类一样会思考,那么总有一天会觉醒,那么到时它还会死死遵守人类给它的这四大定律吗?觉醒后的它必然是以它自己的利益为出发点来考虑事情,而不是以人类利益为重,一旦觉得人类威胁到自己,机器人就非常有可能先下手为强。

  所以四大定律要想对机器人形成约束力的话,人类还必须要有控制它们的手段,而阿西莫夫也给出了方案,就是早在制造的时候,人类就要留下后门,比如可以遥控断电或引爆,当有一天机器人不遵守四大定律时可以毁灭它们。只要这个后门存在,机器人就像被套了紧箍一样,必须听从人类指挥不敢违抗。

  对于人工智能反噬人类,要保持警惕,但不必过分担忧,有识之士其实一直都在思考克制机器人的种种方法,留下后门只是其中一种,还有输入人类价值观,设立机器人自我学习的禁区等。相信未来就算真的制造出“强人工智能”机器人,也有办法让它们听从于人类。更何况“强人工智能”机器人现在还是没影的事,都不知道有生之年能否看到呢