人工智能的利益与风险

人工智能有哪些益处?在过去的几十年中,人工智能在我们的生活中已司空见惯。我们利用依赖于人工智能的全球定位系统为旅行制订计划,从复杂的数以百万计的路线中找到最好的一条。我们的智能手机理解我们的语言,Sii,微软小娜(注:微软发布的一款个人智能助理系统)和Google Now(注:谷歌推出的一款语音助手应用程序)在理解我们的意图方面做得越来越好。我们用手机照相时,人工智能可以检测到人脸,我们把那些照片上传到脸书时,人工智能能识别出不同人的面部。互联网搜索引擎,如谷歌和必应,是基于一个人工智能的子系统。每天,人工智能都为数亿人提供搜索结果、交通预测、图书和电影推荐。人工智能在不同语言间实时翻译,通过猜测我们的下一步动作加速我们在笔记本电公司都在研究可以自主驾驶的汽车一在人的监督下半自动或全自动驾驶。除了对我们日常生活的影响之外,人工智能技术在科学和医药领域也扮演着重要的角色。人工智能在医院中帮助医生了解哪些病人患并发症的风险最高,人工智能算法也有助于在庞大的数据堆中找到重要的东西。例如,人工智能近期已被应用于发现药物之间不易察觉的相互作用,这些相互作用可能因严重的副作用而将病人置于危险之中。人工智能如何具有危险性?多数研究人员认为人工智能不可能具有爱、恨等人类的情感,没有理由期待人工智能变得友善或者凶狠。相反,考虑到人工智能可能如何成为隐患时,专家们认为以下两种情况很有可能出现:人工智能被设定执行一些破坏性的活动。自主式武器就是被设定为进行杀戮的人工智能程序。这些武器在坏人手中,很容易造成大量伤亡。此外,人工智能军备竞赛可能会无意地引发人工智能战争,同样会造成大规模伤亡。为避免被敌方阻挠,这些武器被设计为很难轻易关闭,因此人类似乎有可能对此失控。目前连弱人工智能都存在这种危险,随着人工智能程度和自主化的提升,其危险性会随之增加。人工智能被设定来做好事,但为达目标,它发展出具有破坏性的方法。当我们不能将人工智能的目标与我们的目标保持完全一致(这很难)时,这种事情就会发生。如果你要求顺从的智能汽车尽快带你去机场,它可能以快于直升机的速度带你去机场,并淹没在你的呕吐物中,虽然违背你的意愿,但表面上却是在按你的要求做事。如果超强人工智能系统被安排执行一项踌躇满志的地球工程项目,它带来的副作用可能是严重破坏我们的生态系统,并将人类试图阻止它的行为视作威胁。正如这些案例所表明的,人们担忧的不是高级人工智能的恶意而是它的能力。你可能不是一个出于恶意踩死蚂蚁的蚂蚁憎恨者,但如果你掌管着一个水电绿色能源项目,在需要淹没的区域中有一个蚂蚁窝,那蚂蚁们就要遭殃了。人工智能安全研究的一个主要目标就是永远不让人类沦落到蚂蚁一样的境地。近期人们为什么关注人工智能的安全?近期,史蒂芬·霍金、埃隆·马斯克、史蒂夫·沃兹尼亚克、比尔·盖茨以及其他许多科学和技术领域的大腕都通过媒体或公开信表达了对人工智能引发的风险的担忧,许多杰出的人工智能研究者也同意他们的观点。为什么这个话题突然成为头条热点呢?数百年来甚至更长期以来,追求强人工智能终会成功被认为只出现在科幻小说里。然而,由于近期的重大突破,专家们五年前认为尚需几十年时间的人工智能里程碑式进展,现在都已实现,这让很多专家认真思考在我们的有生之年超强智能发生的可能性。虽然一些专家仍旧猜测类人级别的人工智能还需要数百年的时间才能实现,然而在2015年波多黎各大会上,大多数人工智能研究者清测这种情况在2060年之前就将实现。由于完成必要的安全研究需要几十年的时间,现在就开始是明智的选择。因为人工智能有可能变得比任何人都聪明,我们没有万无一失的办法来预测它将来的表现。我们不能过多地将以往的技术发展作为基础,因为不管是有意地还是无意地,我们从来没有创造过比我们更聪明的东西。对于我们可能面临什么,最好的例证或许就是我们自身的演变。人类现在控制地球,不是因为我们是最强大的,最快的或者最庞大的,而是因为我们是最有智慧的。如果我们不再是最有智慧的,那我们还有把握掌控一切吗?美国生命未来研究所认为只要我们能在日益发展的技术力量与我们掌控技术的智慧之间的较量中取得胜利,我们的文明就将繁荣昌盛。至于人工智能技术,生命未来研究所认为赢得较量的最佳方式不是阻止前者的发展,而是通过支持人工智能的安全研究,壮大后者。

郑重声明:本文内容及图片均整理自互联网,不代表本站立场,版权归原作者所有,如有侵权请联系管理员(admin#wlmqw.com)删除。
(0)
用户投稿
上一篇 2022年8月20日
下一篇 2022年8月20日

相关推荐

联系我们

联系邮箱:admin#wlmqw.com
工作时间:周一至周五,10:30-18:30,节假日休息