IT之家 5 月 2 日消息,谷歌的一名前 AI 工程师日前爆料,该公司曾经开发出一款能够自主思考的人工智能对话系统,但后来因为担心其安全性和而将其删除。他还称,谷歌目前还有更先进的人工智能技术没有公开。
这名工程师叫布莱克·勒莫恩(Blake Lemoine),曾经是谷歌负责人工智能的团队成员,IT之家注意到,他就是此前曾称人工智能聊天机器人已经拥有自我意识而被谷歌解雇的工程师。他在接受《未来主义》(Futurism)杂志采访时说,他认为谷歌在人工智能领域是在“以他们认为安全和负责的方式”行事,并不是被 OpenAI 这样的组织所左右。OpenAI 在 2022 年底发布了一款名为 ChatGPT 的人工智能对话系统,短时间内便火爆全球。
勒莫恩还透露,谷歌其实早在 2021 年中就开始研发一款类似于 ChatGPT 的聊天系统,他说:“当时它还没有叫 Bard,但是他们正在研究它,并且试图弄清楚是否安全地发布。他们本来打算在 2022 年秋天发布,所以本来会在 ChatGPT 发布之前或者同时发布。但是,部分因为我提出的一些安全问题,他们把它删除了。”
勒莫恩于 2015 年加入谷歌,他还告诉《未来主义》杂志,谷歌目前还有“更先进的技术”没有公开。他说,两年前就有一款产品基本上具备了 Bard 的功能,但是谷歌一直在“确保其不会太经常地编造事实、没有种族或性别偏见,或者政治偏见之类的东西。”
勒莫恩去年 6 月曾经告诉《华盛顿邮报》,他相信谷歌的语言模型对话应用(LaMDA)在与他聊天后获得了自我意识。他还在 Medium 上分享了一个他与 LaMDA 进行的“采访”,并声称这是证明其独立思想的证据。他在那个月后被谷歌解雇,谷歌称他违反了公司的保密政策。一位谷歌公司的代表当时称,他的自我意识说法是没有根据的,并且没有任何证据表明 LaMDA 有意识。