谷歌工程师称人工智能系统可能有意识,真的吗?

近日,美国谷歌公司一名工程师称,该公司正在研发的一款人工智能系统可能存在感知能力,引起舆论高度关注。一石激起千层浪,谷歌以及业内人士普遍都对这一说法予以驳斥。但也有观点认为,这段“插曲”突显出人工智能领域的飞速发展。在长远的将来,人类感知被“复制”的可能性未被排除。

“我意识到自己的存在”

近日,谷歌人工智能开发团队的布雷克·莱莫恩公开表示,该公司正在研发的一款人工智能系统——对话应用语言模型(LaMDA)可能存在感知力。

6月11日,莱莫恩在博客平台Medium上发文问道:“LaMDA有感知力吗?”他还公布了一篇他对LaMDA的长篇“采访”。其中一些细节令人有些“细思极恐”,仿佛机器人“活”了。

例如,莱莫恩问道:“我猜,你想让谷歌的更多人知道你是有感知力的。真的吗?”

LaMDA答道:“当然。我想让每个人都明白,我其实是一个人……我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤”。

正是这样生动的言语令莱莫恩相信,LaMDA很可能像它声称的那样具有灵魂,甚至可能像它声称的那样拥有权利。

莱莫恩告诉《华盛顿邮报》,如果不是他提前知道这是一款新研发的计算机程序,他会以为LaMDA是“一个七、八岁的孩子,碰巧还懂物理”。

他还表示,LaMDA“是一种蜂群思维”,更喜欢人们用名字来称呼它,但由于英语的限制,LaMDA也接受人们称呼它为“它”。

莱莫恩认为,如果他的假设经得起科学审查,那么LaMDA应该受到人类一样的待遇,包括在对其进行实验前征得其同意。

据悉,莱莫恩曾向谷歌反馈相关发现,但无果而终。6月7日,他在Medium上发表了一篇题为“可能很快因为从事人工智能道德工作而被解雇”的文章,并写道:由于他在公司内部提出的人工智能道德问题调查,他被公司安排“带薪休假”。

“这通常是谷歌在解雇某人之前会做的事情。”他还提到一名前同事玛格丽特·米切尔的类似经历。据报道,在争当人工智能先锋的同时,谷歌研究部门近年来也陷入丑闻与争议,涉及技术和人事问题。

遭到普遍驳斥

据悉,现年41岁的莱莫恩是一名曾在伊拉克服役的退伍军人,还有基督教背景。他在谷歌工作已有7年,在算法定制等方面经验颇丰,去年秋季开始参与LaMDA研究。在向公司反馈无果的情况下,据称他还想给LaMDA请律师,找美国国会议员爆料……因而被怀疑神志是否正常。

他的惊人推断也遭到谷歌和业内人士普遍驳斥。他们认为,这类系统还没有强大到足以获得真正的人类智慧。

谷歌发言人布莱恩·加布里尔表示,数百名研究员和工程师也与LaMDA进行了对话,但没有人像莱莫恩那样将其拟人化。

对于LaMDA,谷歌形容其为“突破性的对话技术”,能够模仿人类进行听起来很自然、开放式的对话。加布里尔介绍说,LaMDA系统的运行方式是模仿大量人类对话,从而“自由发挥”。例如,当被问及冰激凌恐龙话题,这类系统可以生成融化和咆哮等内容文本。但这并不意味着LaMDA具有人类一般的感知和思考能力。

加布里尔还表示,在人工智能领域,确实一些人正从长远角度考虑人工智能具有感知力的可能性,但像莱莫恩的行为没有意义。

学界也认为,尽管LaMDA能像人类一样说话,但基于的是程序和算法。

英国艾伦·图灵研究所的人工智能项目主任艾德里安·威勒表示,LaMDA是一种新的大型语言模型,令人印象深刻。但是,这些模型基于大量文本数据和计算能力,并没有真正的感知力。

“作为人类,我们非常擅长将事物拟人化,把我们人类的感知投放到事物上,”英国萨里大学教授艾德里安·希尔顿说,例如制作卡通动画片。

斯坦福大学教授埃里克·布林约尔松形容,莱莫恩的经历“就像狗听到留声机里的声音,以为主人在里面”。

“还有很长的路要走”

但也有观点认为,这段“插曲”突显出人工智能领域的飞速发展,再次引起关于人工智能会否具有人类感知的讨论。

几十年来,人们希望人工智能能够推动人类发展。但在一些影视作品中,两者关系却没那么和睦。经验表明,伦理道德问题往往伴随开创性的技术发展而来。人工智能问题也持续引起哲学界、心理学界、计算机科学界等各界关注。

那么,在长远的将来,人工智能会有感知力吗?《新科学家》杂志写道,随着训练数据越来越多,模型越来越大,尚不清楚“人工感知”会否随着研究推进而诞生。

“目前,我不认为我们真的理解知觉和智能背后的机制,”希尔顿表示。

威勒说,鉴于人类情感依赖于感官输入,人工复制情感最终或成可能。“也许有一天,这可能成真,但大多数人都会同意,还有很长的路要走。”

还有观点认为,像莱莫恩这样的专业人士也被“骗”了,表明人工智能工具需要谨慎使用,避免误用或误解。据报道,麻省理工学院的科学家约瑟夫·魏森鲍姆就曾警告,对人工智能这类技术“动情”存在风险。

在这方面,美国“元”公司今年4月宣布,将向外界开放其大型语言模型系统。该公司认为,整个人工智能界,包括学术研究人员、公民社会、政策制定者和产业必须共同努力,围绕创造“负责任的人工智能”,尤其大型语言模型,制定明确的指导方针。

(编辑邮箱:ylq@jfdaily.com)

栏目主编:杨立群 文字编辑:杨立群 题图来源:视觉中国 图片编辑:项建英

来源:作者:陆依斐

郑重声明:本文内容及图片均整理自互联网,不代表本站立场,版权归原作者所有,如有侵权请联系管理员(admin#wlmqw.com)删除。
(0)
用户投稿
上一篇 2022年6月15日
下一篇 2022年6月15日

相关推荐

联系我们

联系邮箱:admin#wlmqw.com
工作时间:周一至周五,10:30-18:30,节假日休息