用微博账号登录:

当前位置:首页 > 时评 > 当我们恐惧人工智能时,我们到底在恐惧什么?


当我们恐惧人工智能时,我们到底在恐惧什么?

作者:王新喜 发表于:2017-08-08 当我们恐惧人工智能时,我们到底在恐惧什么?

推荐度:

即便是业内诸多科技大佬、企业家等不断重申人工智能并不会给人类发展带来威胁与灾难,并让人们相信AI的好处会大于弊端。但还是有很多人表现对人工智能的恐惧,而聊到人工智能,人们最为普遍的忧虑以及最为热门的话题始终是,它是否会造成大规模失业,是否会抢夺人类的饭碗?

当然,乐观派会认为这种担忧是科幻电影看多了。在最近,有消息称Facebook在人工智能研究所在对两个聊天机器人进行对话策略迭代升级时,发现它们竟自行发展出了人类无法理解的独特语言,系统中的聊天机器人开始用自创语言对话,全然无视程序员下达的指令。而脸书停止了这一项目的研究,原因是“担心可能会对这些AI失去控制”。

不过Facebook近日公开回应关闭AI失控语言事件,认为一些媒体的报道有失事实,Facebook并没有关闭机器人聊天系统,而是在使它们变得更加聪明可控。

人类内心对人工智能恐惧与怀疑

这是否是Facebook在人工智能系统中Bug还是故障暂未可知,但如果这是谣言,那么这可能就是人类内心对人工智能恐惧与怀疑的一个释放的方式与出口。

特斯拉CEO马斯克最早在2014年就在麻省理工学院的一次公开访谈中抛出了AI“威胁论”:“我认为我们应当格外警惕人工智能。如果让我说人类当下面临最大的威胁是什么,我觉得是人工智能无疑”。物理学家斯蒂芬·霍金曾经表示“人工智能可能自行启动,以不断加快的速度重新设计自己。”

微软创始人比尔·盖茨也曾公开表达同样的忧虑,称“机器确实可以帮助人类完成很多工作,但当机器越发的智能,它们将会对人类的存在造成威胁”。亚马逊CEO贝索斯曾就AI“威胁论”与马斯克发生过公开辩论。

但后来他同样认为未来的人工智能革命或许的确有一部分超出我们的控制范围。而谷歌母公司Alphabet执行董事长埃里克·施密特认为担忧人工智能是纯属杞人忧天,是科幻电影看多了。

AI的发展速度或快于人类学习进步的速度

从目前各方大佬的观点来看,即便是有对人工智能持乐观派,但或许还是会透露出一些对AI的担忧与未来发展走势的不确定,科技大佬尚且如此,更遑论普通民众。可以看出的是,人们在人工智能的发展速度面前,还是表现出了不自信的一面。

虽然人们懂得,人类本身是在不断进化,但人工智能也可以,人们对于新事物的学习与进步都是一步一个脚印,而学习进度的速度相对偏慢,但人工智能的进步速度要远超过人类,多年前人们会认为AI在围棋上战胜人类不太可能,今天已经实现了。而依据摩尔定律,计算能力每隔一段时间就会翻番,这会驱使AI设计变得越来越复杂、计算机处理器速度越来越快,它们的水平会不断提高。

况且当前的中美科技巨头,几乎都在全力押注AI,谷歌、IBM等巨头相继开源AI平台,NVIDIA、英特尔公司深攻AI芯片,谷歌、苹果在大力收购AI公司,国内AT均提出AI发展战略,AI的发展速度未来几年可能会加快。

在当前世界各地,不少中低技工正在不断被机器人或智能化自动化软硬件所取代,并且取代率还在不断上升。有人说,人类需要学习十几年甚至二十年才能获得一份体面的工作,而AI呢?开发一个好的程序大家花几分钟下载,甚至不用下载直接API就能用了。当然,AI技术在不断地吞噬工作,但也会不断地创造工作。问题是,创造工作的速度能否赶上它所毁灭的工作的速度?当AI的发展速度快于人类学习进步的速度,越来越多的人都会被一种被淘汰的焦虑包围。

人工智能未来可能会取代更多的工种,但不再会创造大量的低技术性岗位

尽管人们总是会拿蒸汽时代工业革命敲碎旧时代生产力体系,继而带来更多的新的工作来类比人工智能时代所带来的想象空间。但人工智能时代可能与工业时代有着本质的不同。

不同之处在于,比如过去工业革命革掉工匠们的命,用汽车取代马车,但这种变革更多是提升工业化的生产效率,带来了更多的工种,创造了大量的低技术性岗位,比如一个失地的农民,转型为产业工人并不困难,因为产业工人的需求很大,而且培训上岗的技术难度不大。

但人工智能未来可能会取代更多的工种,但不会创造大量的低技术性岗位,因为它的本质不仅是消灭简单机械的重复性劳动,而是能够自主分析与判断,与人类的脑力与技术展开竞争,即便能创造工作,也是技术性更高的工作。

比如说无人驾驶技术让司机的岗位消失,但带来的却是软件工程师、程序员、设计师等相关的岗位,这些岗位不是能通过简单的培训就能够上岗的。从另一个角度而言,正如美国学者约翰.C.黑文斯所言:技术纯熟的工匠与工业化的流水线上的廉价劳动力对抗,与对自动驾驶汽车在生死关头的程序如何编写的担忧本身不可同日而语。

人类如果在越来越多的领域被AI所取代,那么人类的工作将越来越多的聚焦在AI所不能取代的领域,而这些领域也没有人能够确保它永远不会被取代,正如有人说,我们恐惧的不是人工智能,而是自己的无能。也有如罗振宇此前在演讲中说过一句:“再残忍的资本家好歹要剥削工人,人工智能时代可能让人们连这个价值都没有。”

心理学上的恐怖谷效应

从心理学上来看的话,恐怖谷理论或许能够从另一个角度来解释我们对于AI机器人的恐惧。“恐怖谷”一词由日本机器人研究院Ernst Jentsch于1906年的论文《恐怖谷心理学》中提出,即当机器人越来越接近人类的时候,我们对它们的好感会提升,但是当机器人非常接近人类的时候,一旦到达某个临界点,我们的好感就对大幅度降低,甚至开始莫名的厌恶和惧怕。

为什么,因为当一个长着人的皮囊,但各项性能都超过人类、甚至克服了衰老与疾病的AI机器,人类的自尊感会被消弭于无形,而在这个时候,人们更担心的是人工智能产生独立意识,然后噬主。尽管,独立意识的产生方法现在只有几个假说而已,但需要思考的是,当一个AI的物种在智力、智商与能力等诸多方面均超出人类的时候,它是否还会心甘情愿的接受人类的统治?

只要人类与一个人工智能的系统算法密切结合工作,那么人工智能可能向人类学习,继而实现人物的自动化进程,当AI专家不断将新研究转变为算法,然后加入现有系统中,使得AI设计变得越来越复杂,那么它的危险就来自于自我学习与进化,发展演化到一个足够复杂的系统,人们可能无法关掉某个本身具有运行指令的系统,因为程序正在通过某种逻辑让自己的效率最大化。

这样一来,即使出现未知后果的风险提高,我们逐渐的无法完全了解这些系统的运作结果,它们的失灵方式也多种多样。历史上大的灾难往往都由各种各样的小故障组合而来,这也意味着一种安全与失控的危险。

所谓的恐惧都是源于未知。人工智能的发展速度太快,而普通人却对人工智能的操作方式、运作逻辑与程序一无所知,它彷佛一只神秘的黑盒子,人们知道自己未来不可避免的将身处黑箱之中,却不知道黑箱的边界,而人们更担心人工智能收集各种数据,因为驱动大数据经济的AI应用程序,是基于人类的兴趣、爱好、生活方式等数据以及主观判断所设计的系统,而这种系统却比人类更了解自身,这会让人们的隐私荡然无存。当前已经有AI芯片问世,比普通芯片快十倍乃至上百倍。显然,这开辟了一系列的可能性。

人工智能会剥夺人的幸福感

从另一个层面来看,人工智能还会剥夺人的幸福感。人类需要幸福感与意义,需要薪水,需要人生的意义。而对于大多数人而言,幸福感与意义一般是由工作所赋予的,另一种就是从帮助他人中建立起来的存在感。因为工作能够帮助人们建立一种心流与价值意义,让人们沉浸并找到自身存在的意义。

而人的能力在本质上是有限的,当然,自动化与AI化将会成为一个趋势,工作被机器人取代之后,人们会焦虑该找什么样的工作才不会被取代,当自动化与失业威胁围绕,人们可能担心无法挣到足够的前来购买产品与满足自身的娱乐需求,人们必须思考如何找回被剥夺的存在感、意义与幸福感。当AI能够代替人类来帮助人类,人们就会逐步丧失表达同理心的能力。

按照心理学的理论,这是更高一级的“自我实现”的需求,它和娱乐一样是刚需,当自我实现的需求被剥夺之后,人们会思考自身存在的意义究竟为何,哲学家帕斯卡在《沉思录》所言:面对强大有力的宇宙,人是一根会思考的芦苇。

当人生幸福感被为人工智能剥夺而找不到意义时,就会陷入另一种危机之中——如何定义自己。正如凯文凯利所说:在未来的十年或者是未来一个世纪,我们都将生活在挥之不去的身份危机之中。我们需要人工智能来告诉我们,我们是谁。这同样让人们感到恐慌。

AI导致数据的转移与权力的集中:继而导致资源与利益的重新分配

其次是数据。我们知道,数据是AI系统的命脉,你需要用数据进行训练,需要海量的数据与信息来进行推理。比如数字图像、数字记录,以及工厂的数据和跟踪信息,这些都可以放到系统中进行训练。而随着巨头用户规模化扩张,会导致数据不断转移与集中到几家公司手中,这回导致权力与资源的转移与重新分配。如果未来强人工智能快速发展,它对人类的了解会越来越透彻。

有用户表示,通过识别照片和人脸,Facebook的人脸识别软件可以区分出化妆和不化妆时的我,这既有趣又可怕。与此同时,人类在辨认人脸时却常常遇到困难。据说波士顿的某家公司的AI已经通过数据的训练非常擅长阅读人类情绪了。

而根据人类简史的作者赫拉利的观点来看,人工智能技术的一个潜在结果是促成数据集中到某一个地方,也进而导致权力的集中。因为说到数据算法,你能在一个地方集中的数据越多,算法就会越好。因此人工智能技术革命产生了巨大的,将数据集中的动力,也造成了权力的集中。

也就是说,对于AI科技巨头来说,它的用户规模越来越大,数据就会越来越大,这同样会造成权力越来越大。换句话说,中美科技巨头将拥有越来越大的权利。但事实上,这也是人类对人工智能恐惧的一方面,因为权力的转移会导致利益与资源的重新分配。这可能导致它会让部分人受益,但不会让更广泛的普通人受益。

AI风险在于其程序设定没有人类的价值观与道德标准

让人们更为恐惧的是,社交机器人学家与人工智能专家正在努力让人工智能融入人类特征,但人工智能却没有人类的价值观与道德标准,人工智能在加速推进,但只要人们没有从法律层面否决它是否应该被开发出来之前,它都是可以进行开发的。这会给谷歌、Facebook、微软等科技巨头提供大量的机会,即在道德伦理与法律监管真空中进一步发展人工智能技术。

但所隐含的弊端是,机器人没有与生俱来的道德,这原本是需要程序员和各个系统从操作系统开始,逐步落实道德标准。就比如科幻作家艾萨克·阿西莫夫所创造的“机器人三大定律”:机器人不得伤害人类或坐视人类受到伤害、机器人必须服从人类的命令、在不违背第一和第二法则的前提下机器人必须保护自己。

有了这种逻辑与价值观设定,人们会相对感到安全,当前自动化智能又几乎没有相关的法律规定,人类价值观却并未被编入人工智能的核心,这可能导致它带来的潜在危害走向失控。说到底,这是人们潜意识里对机器人的不自信,对它将叛变人类以及取代人们的恐慌。当然,这也是人们是对于未知的一种恐惧。

当然,人工智能要发展到威胁人类这一步还有太长的路要走,甚至在许多人看来,这一天永远也不会到来,毕竟现有的人工智能技术还不成熟,与真正人意义上的智能差的很远,目前的它被过度解读和渲染了。不过,更多的恐惧是来自于未知。恐怖大师史蒂夫-金所说,让人的心备受恐惧折磨的从来都不是妖魔鬼怪,而是超出认知范围的未知。

尽管我们不必过于担心人工智能可能会对人类造成的威胁,但也知道人工智能的发展是没有天花板的。我们正确的做法是正视这个趋势,并在未来趋势中去熟悉使用人工智能辅助,逐步占得这种技术进步的红利,并从中分一杯羹,在宏观层面,需要思考和做好AI的安全管控设计以及预防的备用方案,来管控好人工智能的安全、风险失控、伦理道德以及社会层面等诸多方面的问题,来消除人们的恐慌以及尽量让弊端与威胁最小化。

【钛媒体作者:王新喜,微信公众号:热点微评(redianweiping)】

来源:钛媒体

原文:当我们恐惧人工智能时,我们到底在恐惧什么?

《商业评论》网iPhone客户端

请关注我们的新浪微博官方帐号:

@商业评论网(http://weibo.com/ebusinessreview

@商业评论杂志(http://weibo.com/hbrc)

无觅相关文章插件,快速提升流量
[  标签: 科技推荐  人工智能  时评  ] 3484 次阅读0 次评论

读者评论

(评论内容为网友针对本词条展开的讨论,与本网站的观点立场无关。)


    该文章只有登录后才能评论。请先登录

    分享到:QQ空间 腾讯微博

    评论

    声明:本文由 @商业评论网 http://www.ebusinessreview.cn(转载请保留)拥有版权或由内容合作伙伴授权提供,未经商业评论网书面许可,对于商业 评论网拥有版权和/或其他知识产权的任何内容,任何人(包括博客及个人空间)不得复制、转载、摘编或在商业评论网所属的服 务器上做镜像或以其他任何方式进行使用。


    您也可以直接 在线订购 或致电 800 820 5396 购买刊登本文的当期杂志。 电子版全文将于本月内更新发布,届时您可购买在线阅读卡阅读全文。

    帐户如果还没有点数?立即 购买阅读卡,在线阅读更多精彩文章 注册冲值后仍打不开全文?请点击“ 常见问题”。如需更多信息,请进入 帮助页面
    订阅热线: 800-820-5396    邮局订阅代码: 80-115
    共0人分享过本文,他们是: