2016-05-22 23:06 浏览 评论
当我们谈论人工智能时,一定不能避开两个时间节点,一个是1997年5月,另一个则是2016年3月。1997年5月,俄罗斯棋王、国际象棋世界冠军卡斯帕罗夫在与IBM公司的深蓝计算机第6次交手时,誓要捍卫人类尊严的卡斯帕罗夫在仅走了19步棋的情况下就眉头紧锁,向深蓝“拱手”称臣。当时人们还会说,幸好还有围棋。他们说,围棋是“人类智慧最后一块高地”。2016年3月,一场举世瞩目的“人机围棋大战”开战,谷歌旗下的人工智能软件“阿尔法围棋”挑战世界围棋冠军李世石,最终李世石以1∶4告负。人工智能技术的发展在给人类带来憧憬的同时,也带来了一些抹不去的担忧。如果机器变得和人一样甚至比人还要聪明,那么人类是否会受到威胁?
英国科学协会展开的一项调查显示,在2000名被调查者中,三分之一的人相信人工智能将在下世纪给人类带来严重威胁,超过60%的受调查者认为机器人将在未来10年抢夺人类的工作。四分之一的受调查者则预计,在20年内机器人将成为人们日常生活中的一部分。就好似任何一种新生事物的出现都会有支持派、反对派和观望派一样,目前人们对于人工智能的看法也分出了“支持”“不支持”和“看不明白”几大阵营。
机器人真的会毁灭 人类 ?
许多科学家担忧:
人工智能是人类生存的最大威胁
事实上,许多科学家对人工智能表示担忧。著名物理学家霍金曾与多位科技界名人发表联署公开信,表示人工智能对于人类的威胁更甚于核武器。他认为:“对完全人工智能的发展可能会招致人类历史的终结。”他警告称人类正面临来自智能技术的威胁,随着技术体自身开始学会自我思考,并学会适应环境,我们人类将面对不确定的未来。他表示:“成功制造出一台人工智能机器人将是人类历史上的里程碑。但不幸的是,它也可能会成为我们历史上最后的一个里程碑,除非我们能学会如何去规避这种风险。短期来看,人工智能产生何种影响取决于谁在控制它;而长期来看,这种影响将取决于我们还能否控制它。”
电影《机器管家》剧照
霍金并不是唯一一个对人工智能表示担忧的人。特斯拉汽车的首席执行官马斯克的看法更加引人注目,他用个人推特账号发布警示,称人工智能是人类遇到的最严重的“生存风险”。既然人类可以进化出文明,人工智能为什么不可以建立自己的文明?既然机器有了自己的意识和思维,那它是否会拥有自主意识,就如同“奴隶”意识到自己是“人类”。在人类不长的历史中,确实存在过长达千年的“奴隶社会”时代,那时候的“奴隶”根本没有人的权利,只能被称为“会说话”的工具。英国数学家欧文·约翰·古德把超智能机器的发展形容为“人类需要做的最后一项发明”,因为在超智能机器出现后,人类会把创新与技术研发的工作让给超智能机器这位更为智慧的继任者。