我们该担心“可怕”的人工智能吗?你得听听不同看法
人工智能是什么?用通俗的话来解释,它是用计算机系统,通过海量的数据和强大的运算能力来模拟人类思维的过程。听上去,人工智能应该是帮助电脑变得更聪明,好让聪明的电脑帮助人类的一门学科——至少很多人工智能学界和商业公司的人是这样认为的……
不过并非所有人都认为聪明的电脑只会帮助人类。因为对于很多人来说,他们头脑中的人工智能,往往来自于科幻电影,是《Her》里面的萨曼莎,或是《终结者》里面的终结者——人工智能被打上了阴险、欺骗和替代人类、奴役人类的标签。同样,一些人工智能专家甚至已经开始为人工智能的过快发展、未来将具备的强大智能水平而感到担忧。
应用人工智能技术的科技行业、研究人工智能的学界,至今尚未就人工智能是否值得担忧而达成一致。最近,一些知名人士找到机会公开发表了自己的看法:
本周三在论坛网站Reddit上参加 “AMA”(Ask Me Anything)活动的时候,微软创始人比尔·盖茨被问到了关于人工智能发展的看法。他称自己属于很担心超智能技术的人,并对人工智能的快速发展感到担忧。
当被问到“2045年个人计算会发展到何种地步”的时候,盖茨说,在接下来的三十年里,机器人技术,以及人工智能的机器视觉、语音识别等方面技术都会迎来突飞猛进的发展。他认为,届时电脑和机器人因为能力强大,将会被人类密集使用。
超智能的发展对于人类究竟会带来多少实质性的威胁?著名物理学家史蒂芬·霍金博士(Dr.Stephen Hawking)对于这个问题刚刚给出过“为人类带来灭亡”的评论;而特斯拉创始人兼CEO 伊隆·马斯克(Elon Musk)则认为人们应该对人工智能保持高度警惕;曾发明多种袖珍电子产品的英国著名发明家克里夫·辛克莱(Clive Sinclair)也认为人工智能将会毁灭人类。
曾因创立微软而懊悔没能进行人工智能研发的比尔·盖茨,也属于这个队伍。没错,这群赫赫有名的大人物已经发出l提醒:要警惕、甚至远离人工智能。
吴恩达:“人工智能毁灭人类”就是“炒作”(hype)
不过,在那些长期从事人工智能研究的专业人士看来,这项技术远远不值得担忧。人工智能领域的权威人物、斯坦福大学人工智能实验室主任吴恩达(Andrew Ng)就刚刚表达了跟马斯克和盖茨们不同的看法。
这个周五, 百度在硅谷举办的The BIG Talk硅谷场上,这位刚刚加入百度不到一年的首席科学家,为自己的研究方向正义性做出了强有力的背书。在他看来,无论是杀手机器人,还是变得比人类更聪明的电脑,都不应该是需要担心的东西——因为它们暂时还不会出现。目前人们对于人工智能的讨论,都只是在过度简易的比较人脑和计算机神经网络。
尽管在外人看来,人工智能研究的是常人难以理解的高科技,也就是让计算机去模仿人思考的科技,但其实,人工智能学界普遍有一种共识,就是人工智能实际上还处于非常低智的阶段。以图像识别、语音识别的深度学习系统为例:目前绝大多数的系统还处于大脑容量扩张的阶段,绝对还没有达到能够思考的程度——绝大多数的系统所做的只是利用海量数据,配合人类教给他们的逻辑,去计算结果。
这个情况在吴恩达(Andrew Ng)演讲所用的Keynote当中也有所呈现。他在演讲现场展示了一个“人工智能虚拟圈”:人工智能需要使用大量数据去做出一个优秀的商业产品,从而获得大量用户,用大量用户产生的大量数据再次去反哺系统——吴恩达清楚地明白这一点,尽管百度目前在人工智能方面还没有优秀的、业界知名的商业产品出现。
另外,事实上,百度正在进行深度学习研究的角度是人机交互,这意味着一切研究最终希望实现的目标,产出的成果,都是为了优化人与机器的交互。
吴恩达认为,人工智能最终将要改变的是人与科技交互的方式,无论是通过文字、图像还是语言。也就是说,人在未来将继续扮演最核心和最重要的角色。至于那些对人工智能的恶意的担忧,大多是炒作而已。
在吴恩达看来,人工智能并不会带给人类社会世界末日,它的真正挑战在于其他的层面,比如就业——这和历史上所有科技带来的挑战都是一样的:技术取代传统的人力和人工,变革越来越快,这些人就需要更快更多地接受训练来重新找到工作,适应新的生活方式。从这个角度上来说,来自学术界和政界对于“邪恶机器人”的炒作,实际上是个劳工话题。
人工智能发展协会主席(Association for the Advancement of Artificial Intellegence, AAAI)Thomas Ditterich,和该协会前主席,现微软研究院Redmond实验室负责人Eric Horvitz,最近也 在Medium上合著了一篇文章,深刻阐释了人工智能的利与弊。
关于人工智能的讨论甚嚣尘上,但他们希望人们明白,没有人工智能,人们的生活将回到很久以前的尴尬境地。比如,地图软件和GPS通过人工智能来帮助司机计算最优路线、搜索引擎通过人工智能来提供搜索结果和答案……
这两位专家认为,人工智能的发展是应该的(显而易见); 但同时,人工智能的发展仍然存在三种风险情况,它们分别是:软件错误、黑客攻击和“魔法师学徒”式的误解。
说白了就是:
首先,人工智能系统,在遇到过去统计式机器学习过程当中从未遇到过的意外情况的时候,必须仍然能够正常运行。也就是说,如果一个自动驾驶系统突然在路上遇到了系统无法识别的一个东西,它至少应该不要把它忽视掉,而是能够选择合理的处理方法,无论是绕过还是减速。
其次,人工智能系统和平常的软件并无大异,也会受到病毒等恶意软件的危害,而由于人工智能系统的责任更大,比如自动驾驶系统,掌握的是乘客的姓名,因此其抗干扰的能力理应更强。
最后,人工智能系统所做的不应该是严格执行人的指令,而是明白指令代表的含义。比如,“带我去机场,越快越好!”不意味着自动驾驶系统可以以300迈的速度飞驰,所行之径惨死的过路者无数。换句话说,人工智能系统应该按照人类设定的一系列基本原则去工作——至于都有哪些原则,看过《终结者》的人应该都记得。
以上三点正是人工智能的弊端,但它们并非无法克服。这两位专家希望科技业界和学界在发展人工智能技术的同时,牢记它的弊端,在任何时候保持警惕,在构建系统的时候千万保障软件的稳定性和安全性。因为,总有一天,人类的性命安危会被交到人工智能系统手里,在那发生之前,研究者必须要保证,人工智能给人们带来的是安,而不是危……
三种观点,你同意哪一种?
图片来源:Shutterstock、Getty Image、虎嗅、新浪科技、Wikipedia
相关阅读:
福特在硅谷招兵买马,甚至挖来苹果员工,就是为了这6个神秘项目