机器人现在还很乖 但以后如何?
公元 2015 年 7 月 29 日,就是雷德蒙德最大企业微软发布划时代的 Windows 10,让用户免费升级的那一天,我独自在办公桌前等待着推送,微信消息闪动,一个朋友发来一张 Twitter 截图,说是 Xbox One 在弹出光碟的时候将玩家割喉了,并问我道,要不要写点什么?
我说,好!
他就正告我,你就搞个大新闻,批判这种东西,你很在行。
其实并没有什么机器人杀人事件
按照以往的经验,先根据关键词,找到信息源,而且一般这种耸人听闻的消息属实的话,会有多个信源可以采纳,其中应该会有可信度比较高的信源,并有不同细节呈现。
经过简单搜索,找到了这则新闻的源头,是一个从没听过的网站,newswatch33,标题也是很惊悚:Xbox One 杀死少年,主机大力弹出光盘将其割喉(Xbox One Kills Teen After Console Forcefully Ejected a Disc Slicing His Throat)。而文章下面的评论也非常有意思,纷纷表示《终结者》电影中的天网出现了,这是一起人工智能机器人杀人事件。而这个消息也很容易将人引导到这样的思考方向中去。
在这个网页的配图中,还有警车出现的照片,来烘托事件的真实性。在我继续寻找另外的交叉信源的时候,找到了一个辟谣网站 thatsfake,揭示了这个在 Twitter 上广泛传播,内容耸人听闻的消息就是一个假消息。newswatch33 这个网站也是特别喜欢搞大(假)新闻,比如“NASA 宣布地球在 2015 年 11 月 15 日到 29 日会有 15 天的连续黑夜”这样的假新闻,事实上,NASA 预测地球将有连续黑夜的谣言也是会在各个时间段以各种版本出现。
至于那张烘托气氛的警车照片,则是之前另外一则新闻的配图而已。
事已至此,我们可以断定,Xbox One 弹射光盘将少年割喉的新闻已经可以证伪。
不过人们对于机器人或者人工智能杀人的“奇闻”总是抱有非常大的兴趣,而媒体们,也经常喜欢迎合这种猎奇的心理。最典型的例子,就是前不久许多科技媒体报道的“大众工厂机器人杀人事件”,在许多媒体的渲染下,尤其是标题的指向下,这个事件是“机器人主动把工人杀死”,但是真正的情况却是因为误操作,受到机器人撞击,被压在铁板上重伤不治。而不是许多报道中所指向的“机器人突然抓住工人,然后撞击工人”。
随着新版《终结者》的上映,人们对于人工智能滥用的讨论又开始了。特别是在上面大众工厂事故的报道中,撰写消息的《金融时报》编辑名为 Sarah O‘Connor,这和《终结者》电影中的女主 Sarah Connor 的名字极为接近,更是引发了外界的各种遐想和瞎想。
机器没有杀人,但是科学家们担心出现杀人机器人
虽然上面的两个所谓的“机器杀人事件”被证伪或被证实是误传,而且目前也没有出现能够自主杀人的人工智能机器,但是目前有不少的科学家和企业家开始担心人工智能在未来的危害,其中的代表包括物理学家霍金和特斯拉 CEO Elon Musk,他们认为,人工智能是人类亲手制造出来的恶魔,当人工智能发展完全,就将是人类的末日。霍金说:
“它(人工智能)能够自行发展,并且以从未有过的速度重塑自我,而人类受限于缓慢的生物进化无法与之抗衡而终将被替代。”
另外,人工智能的狂热支布道者,奇点大学的的创始人 Ray Kurzweil 甚至预言计算机和人类的智力差距将在 2029 年消失。
未来生命研究所(Future of Life Institute)由 Skype 联合创始人 Jaan Tallinn 和麻省理工学院教授 Max Tegmark 主导,志在将人工智能导向正常用途,避免人工智能的研究失控。
近日,千名人工智能研究人员签署公开信,呼吁禁止自主武器(autonomous weapons),所谓的自主武器,就是指具有人工智能无需人类干预就能袭击目标的武器,通俗的讲就是杀人机器人。如果用影视形象的话,大概就是《机械战警》中的 ED-209 机器人。对于这个尚未出现的武器,业界已经开始抱有很大的警惕。
在这千名研究者,包括 IBM、微软和 Google 的研究者,和反对滥用人工智能的名人,如 Elon Musk、霍金,还有社会理论学家 Noam Chomsky,苹果联合创始人 Steve Wozniak 等等。他们认为,自主武器就像未来的 AK-47,将无所不在,其生产成本低廉,可以大规模制造。一旦落入恐怖分子、军阀等势力手中,后果不堪设想。
自主武器被认为是继火药和核武之后的第三次战争革命,在公开信中,科学家警告:
“如果军事力量在人工智能武器研究中占据上风,那么将会引发有一次全球军备竞赛。”
出于这种担忧,未来生命研究所主导的这封公开信旨在合理利用人工智能,禁止开展人工智能武器军备眼镜,禁止人类控制之外的自主武器出现。
这不是未来生命研究所第一次发布这样的公开信,在今年年初,他们也号召科学家们签署了另外一封公开信,议题是发展人工智能系统必须在可控范围之内。这最近这次关于自主武器的公开信可以认作是上一封公开信的一次细化。