我们可以完全信任人工智能吗?
谢谢邀请。
自从人工智能诞生以来,类似的争议。回答问题之前,先来看看几位大咖的观点:①霍金:“人工智能会导致人类灭亡”早在2014年的时候,英国著名物理学家霍金在接受英国广播公司的采访时就说“人工智能会导致人类灭亡”。
霍金认为,虽然目前人类只拥有比较原始的人工智能,但是已经可以初步看到人工智能非常有用。这样一来,人类势必对人工智能会不断地开发下去。而所谓“智能”,总有一天,会达到可以脱离人类自行发展的程度。
到那个时候,它就可以拥有许多连人类都不掌握的技术。比如说——重新改造自己,并以无法预见的加速度成长。可以想见,这样的人工智能将拥有大大快于人类的成长速度。
如此发展,总有一天,人类将不能与之竞争。
并最终,将会被代替。
②埃隆·马斯克:研究人工智能如同在召唤恶魔。继乔布斯之后美国科技界最杰出的代表人物,SpaceX的创始人/特斯拉的CEO马斯克也认为:
“如果让我猜人类最大的生存威胁,我认为是人工智能。我认为人类应对人工智能保持万分警惕。它们比核武器更加危险,研究人工智能如同在召唤恶魔。”
但是,这位硅谷大佬相对于霍金仿佛更务实一些。
他深知人工智能对人类的诱惑力太大,自己可以不研究,却没办法阻止别人研究。因此,他创立了一家公司“Open AI”,目标是在可控条件下,最大限度的开发人工智能的力量,并且会把成果开源共享给所有人。
嗯,果然是土豪思维。
③比尔盖茨:人类需要敬畏人工智能的崛起。微软公司曾经做过一个在推特上具有学习功能的人工智能聊天机器人Tay。
类似后来苹果手机里会唠嗑的Siri,但是比Siri还要“智能”和公开,不局限于单个用户的手机,而是在公开平台上聊天。
先看看Siri的聊天:
Tay被设定成十几岁的女孩。主要目标受众是18岁至24岁的青少年。Tay基于Twitter和Kik等社交平台,根据用户的网名、性别、感情状况等个人信息,为用户提供所需要的聊天服务。
只要其他用户@了TayandYou后,她就会分析用户的基本信息。然后得到Tay的回复。
最重要的一点就是,Tay会在与人们的交流中不断学习,不断提高自己的理解能力,让自己变得更加智能。
刚上线的时候Tay还是个乖乖女。
结果广大的网民认识到Tay的学习能力之后,就开始了各种各样的对话。然后在上线不到24小时内,Tay就被人类彻底“教坏”。成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。
所以Tay只上线不到一天,就立刻被紧急撤回了。
因此,比尔盖茨表态,人类需要敬畏人工智能的崛起。
④扎克伯格:人工智能威胁论,简直就是杞人忧天。Facebook创始人扎克伯格认为:现在就开始担心人工智能,未免是杞人忧天了。
就像200年前人们担心有飞机了以后,飞机坠毁怎么办一样。如果那时的人类过于担心这个问题,也许今天的我们就没有飞机了。如果我们过度担忧人工智能,将阻碍人类科技的进步。而我们本来可以利用人工智能让世界更美好。
以上,就是部分大咖对人工智能不同的看法。
除此之外,微博、头条、知乎、豆瓣等平台也有过关于这个问题不同的争论。说到这,不得不提一个机器人开发公司——隶属于Alphabet(就是那个制造出会下围棋的阿尔法狗的谷歌公司)旗下的机器人工程技术开发公司:波士顿动力。研发过众多令人惊艳的机器人设备。
前段时间网上热传的波士顿动力公司对机器人进行的“测评”视频又引发了一轮关于人工智能应用的担忧和讨论。
动图为视频节选:测试人员让机器人进行搬运等劳动,并以暴力方式不断攻击和挑衅。
然后……画风突然变成了这样:
没错,受到各种欺凌之后,机器人突然“揭竿而起”了。
且不论这个视频是不是有娱乐成分,剧情已经让人类感觉不适和惊恐。广大网友也表达了自己的看法和担忧。
那么,回到今天的提问,智能时代的到来,我们可以完全信任人工智能吗?首先,需要对人工智智能做一个分类。人工智能可以分成弱人工智能、强人工智能、超强人工智能。
(图片来自:智能玩咖)
提问中“我们可以完全信任人工智能吗?”信任两个字,已经将人工智能当做独立或半独立的个体。也就是说,提问问题中定义的人工智能应该已经是指“强/超强人工智能阶段”
而现在的人工智能发展还处于弱人工智能的初级阶段。甚至可以说是非常原始的阶段,主要用途还是辅助改善人类生活(如扫地机)。
但是,无论是哪个阶段,完全信任几乎都是不可能的。人工智能俨然已是一大趋势,并进入产业化阶段。作为一种可预见的广泛应用,在人类运用过程中必然存在风险。
即便是弱人工智能发展阶段,相依的风险管控机制和立法不可或缺。例如,数据的安全性、技术的成熟度、赋能产业的安全性(例如无人驾驶汽车)等。现在,各界已经有许多对人工智能开发应用过程中的风险和管控的发声和研究。
(图片来源:人工智能相关行业研究报告,需要下载报告可以看文末分享下载方式)
而就所列举的各位大咖以及网络上的普遍争议,也许,我们应该关注的是:智商完全高于人类的——所谓“强人工智能”甚至“超强人工智能”距离我们还有多远?强人工智能观点认为:“强人工智能观点认为计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。”
也就是说,有可能制造出真正能推理和解决问题的智能机器(人)。可以独立思考问题/制定解决问题的最优方案/有自己的价值观和世界观体系。
有和生物一样的思维能力和各种本能,比如生存和安全需求。在某种意义上可以看作一种新的文明。
而关于“强人工智能”甚至“超强人工智能”距离我们还有多远的争论也不是近几年才有的。可以说已经持续了50多年。早在1962年的时候,人工智能先驱,卡内基梅隆大学的西蒙教授就曾经这样断言:“25年内,计算机将完成人的所有工作”
但是直到今天,55年已经过去,这个断言还远没有实现。
1970年,另外一位人工智能先驱麻省理工大学的马文.明斯基教授说:“在3到8年的时间里,我们就能有一台人类平均智能的计算机”
现在又是50年过去了,也依然未果。
随后在上世纪80年代,发达国家都开始大相聚发力。又给人又给钱的发展能够像人一样推理的机器。
至今,30年过去了,也并没有完成。
到了近年,关于类似事情的讨论也没有停止。这里就不得不提一个关键人物,未来学家雷·库兹韦尔。
库兹韦尔写的《奇点临近》提到:2045年,生物人将不存在。人类将通过人工智能实现永生。
其中提到的指数规律理论成为了反对人工智能的人的重要依据。很有可能我们发展出了强人工智能,但是却没有手段限制它。
因此《奇点临近》被当做圣经,理所当然的大卖特卖。
由于这本书引起了强烈的反响,其他的计算机科学界泰斗终于坐不住了。加州大学伯克利分校人工智能教授斯图尔特•罗素在2015年的国际人工智能联合会议把奇点理论狠狠批评了一顿。因为人工智能的进步并不符合指数规律。
到目前为止,人工智能领域的成果其实还是只能做出看起来智能的机器。属于不能自主逻辑思考的弱人工智能人工智能到现在发展60多年直到现在也依旧处于“没有人工,就没有智能”的阶段。
所以,要理性看待人工智能产业发展,创新与信心携行。认识到人工智能产业的机遇与挑战,积极预控其中的风险。并且认识到现阶段的人工智能完全不会威胁人类,人工智能的发展速度也远远没有跟上预言中的进度。
最后如果对“人工智能”领域感兴趣,欢迎看楼主的头条分享《霍金:人工智能会导致人类灭亡?140份人工智能行业报告热门分享》
https://www.toutiao.com/i6707418221806354957/
140份最新的人工智能领域报告免费获取。
参考资料:
霍金警告:人工智能可能使人类灭绝
http://news.ifeng.com/a/20141203/42633344_0.shtml
比尔·盖茨:人类需要敬畏人工智能的崛起
http://tech.163.com/15/0129/05/AH3Q194F00094P0U.html
严肃《人工智能打脸史 》
https://zhuanlan.zhihu.com/p/20622308
为什么有很多名人让人们警惕人工智能?
https://www.zhihu.com/question/27864852
马斯克都投资的硅谷最神秘人工智能公司在干什么
http://it.sohu.com/20161212/n475612661.shtml
人工智能会威胁人类生存吗?
http://www.infzm.com/content/121895