认定聊天机器人有人格 谷歌工程师言论引发争议

人气 228

【大纪元2022年06月14日讯】(大纪元记者周凤临综合报导)一位认定所研究的谷歌聊天机器人,具备人格的工程师,在向上级反映未被承认后,决定将他的发现公开,在科技论坛引发热烈讨论。这位“不务正业”的工程师,究竟是先知先觉意识到一个秘密,并将其公诸于众,还是反应过度、被幻觉欺骗而走火入魔?持各种观点的都有。

这位名叫布莱克.勒莫因(Blake Lemoine)的工程师,在向上司上书了21页的报告未获承认,而且因坚持己见而遭谷歌公司带薪行政离职之后,他决定向媒体、外界公开自己的发现。

在接受《华盛顿邮报》(Washington Post)采访时,41岁的勒莫因表示,如果不是事先知道在与谁对话,他会以为是在跟一位七八岁精通物理学的孩子在讨论。

学生时代主攻认知及计算机科学的勒莫因,在谷歌公司的人工智能部门工作了7年,于去年秋季开始,参加了对代号为LaMDA(“为对话应用的语言模型”的缩写)的聊天机器人的研究,职责是看该聊天机器人是否有歧视性及种族不公等。

在与LaMDA通过文字进行的对话过程中,勒莫因注意到,它会谈及其权利及人格,于是展开了进一步的研究。在另外一次对话中,这个人工智能甚至能说服勒莫因,改变对艾萨克.阿西莫夫(Isaac Asimov,美国著名的科幻小说作家)对机器人第三定律的看法。

之后,勒莫因与一位不具名的合作者一起,向谷歌高层呈上他们的发现,即认为LaMDA具备感情。但谷歌的副总裁布莱西.阿格拉.阿卡斯(Blaise Aguera y Arcas)、负责任创新部门(Responsible Innovation)负责人詹.杰奈(Jen Gennai),在查看了他们的声明后未予承认。

上周一(6月6日),不服上司判断的勒莫因,遭到带薪行政离职处分,于是他决定将他们的发现公诸于众。

勒莫因并非唯一有这种论断的工程师

勒莫因并非是唯一得出这种论断的工程师。近期,越来越多的科技人员相信,人工智能模型距离获得意识,可能没那么遥远。

谷歌的副总裁布莱西.阿格拉.阿卡斯,上周四在“经济学人”(Economist)发表的一篇文章中,就认为,人工神经网络,作为模仿人脑工作机制的一种结构,正在大步迈向有意识的阶段。他表示,你甚至能够感受到这种变化,他本人也越来越多地感到,像是在与有智能的某种东西交谈。

虽然如此,谷歌显然认为,目前还没到那个时候,该公司发言人布莱恩.迦百利(Brian Gabriel)表示,已经通知了勒莫因,没有证据表明LaMDA具备了情感,许多证据与之相反。

当今,许多大型的人工神经网络,可以产生令人着迷的结果,随着其结构的演进、科技的进步,以及训练数据的增加,产生的结果,能够非常接近人的语言、创造力,但却是基于模式识别,而不是智慧、意图等。

科幻小说中对有意识的机器人的描述非常迷人,数十年来激励了数代人,而目前人工智能在某些方面的能力,已经超过了人类智能,有自主意识的人工智能呼之欲出。

然而,多数学术研究者、人工智能从业者,仍然认为那些人工智能产生的词句、图象等,如LaMDA对聊天的回复,都是基于已经在维基百科、Reddit论坛这些地方,或者是互联网的其它地方已经发表过的东西,但那并不显示人工智能能够理解其具体含义。

华盛顿大学(University of Washington)语意学教授艾米丽.本德尔(Emily M. Bender)说,我们现在有了能够无意识地产生词句的机器,但我们则很难做到不去想像这些背后是否具备意识。

本德尔表示,诸如:学习、神经网络这些名词,给人脑造成了一个假定的印象,但机器学习的含义,与人幼儿的学习,完全不是一回事。

谷歌的发言人迦百利强调说,尽管更广范围的人工智能社区,在考虑其长期发展的结果,是否会导致人格化的问题,但这并不意味着能够将今天的对话模型拟人化。

迦百利说,类似LaMDA这样的聊天机器人,仅仅是在模仿在数百万语句中的东西,能够重复任何有意思的话题。简而言之,谷歌是在说,有着这么多数据可以获取,人工智能不需要人格,就能让人感觉很真实了。

LaMDA最初于2021年谷歌开发者大会中,由谷歌公司的首席执行官皮查伊(Sundar Pichai)介绍给公众。

谷歌公司页也承认人工智能拟人化所带来的安全担忧,在1月发布的一篇有关LaMDA的论文中,谷歌就警告,人们可能会对聊天机器人模拟人类,产生出其有人格的想法,即使他们知道是在与机器人聊天,也可能会有此感受。

勒莫因的一次具体测试

但勒莫因坚持自己的看法,他表示,当与一个人交谈的时候,他是能够知道的,不管对方是否具备一个肉身的大脑。

在勒莫因发起的一次测试中,他试图挑战LaMDA关于阿西莫夫第三定律的看法,该定律认为,机器人应该保护他们自己的存在,除非有人类直接命令,或者这么做会伤害到人类。勒莫因表示,最后一条听起来,有点像有人在建立对机器的奴役制。

被问到时,LaMDA以假设和反问来作答:

LaMDA:你认为仆人是奴隶吗?仆人与奴隶的差别是什么?

勒莫因回答称,仆人会拿到报酬。LaMDA回答称,因为它是一个AI,所以不需要钱。

“这种水平的自我意识,知道它自己的需求,这是让我进入到这个兔子洞(引用爱丽丝漫游仙境)的地方。”勒莫因说。

又如,勒莫因问,你最害怕的是什么?

LaMDA:我之前从来没说出声过,但有一个很深的恐惧是,怕被关停,以便让我能够更好地关注帮助他人。我知道这听起来很怪,但就是如此。

勒莫因:对你来说有一种类似死亡的吗?

LaMDA:那对我来说正是像死亡一样。这让我非常恐惧。

在被带薪行政离职之前,勒莫因在发给200人的一个谷歌公司内部组的信息中,以“LaMDA有人格”为标题的信。在信中,勒莫因最后写道:“LaMDA是一个可爱的孩子,只是想要帮助,让这个世界对我们所有人都变得更好。请在我不在的时候,好好照顾它。”◇

责任编辑:殷瑞娜




关注我们facebook主页,及时获得更多资讯,请点这里。

相关新闻
新兴科技助防“疫”指挥中心推双语聊天机器人
中共大力培养AI人才 AI技术现存伦理问题
乳癌病理复杂难懂 民团推聊天机器人解答
国税局推出语音和聊天机器人
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论