要闻

当前位置/ 首页/ 要闻/ 正文

谷歌注册用户与其据称有智能的聊天机器人交谈

导读 谷歌据称有感知能力的聊天机器人是该公司最具争议的项目之一,引起了人们对人工智能的许多担忧。尽管存在争议,谷歌现在正在注册感兴趣的用

谷歌据称有感知能力的聊天机器人是该公司最具争议的项目之一,引起了人们对人工智能的许多担忧。尽管存在争议,谷歌现在正在注册感兴趣的用户与其聊天机器人交谈并向公司提供反馈。

在 5 月的 I/O 2022 峰会上,谷歌 CEO Sundar Pichai 报道了该公司的实验性 LaMDA 2 对话式 AI 模型。他说,该项目将在未来几个月内向 beta 测试人员开放,现在用户可以预订成为首批测试这个所谓的有感知聊天机器人的用户。

LaMDA - 对话应用程序的语言模型 - 据说是一种感知自然语言处理 (NLP) 模型。NLP是人与计算机之间的一种接口。Siri 或 Alexa 等语音助手是 NLP 的突出示例,可以将人类语音转换为命令。NLP 也用于实时翻译和字幕应用程序。

谷歌据称有感知能力的聊天机器人被解雇了一名高级软件工程师

据报道,可以追溯到 7 月,谷歌解雇了一名高级软件工程师 Blake Lemoine,他声称 LaMDA 聊天机器人是有感知力的,并且表现得像一个有自我意识的人。为了证明解雇的合理性,谷歌表示该员工违反了就业和数据安全政策。此外,谷歌道德人工智能研究小组的两名成员于 2 月离开了公司,称他们无法应对解雇。

注册 LaMDA beta 程序的用户可以在受控和监控的环境中与此 NLP 进行交互。美国的 Android 用户是第一批注册的用户,该计划将在未来几周内扩展到 iOS 用户。该实验程序向 beta 用户提供了一些演示,以展示 LaMDA 的功能。

据谷歌工程师称,第一个演示名为“Imagine It”,它允许用户命名一个地方并提供探索他们想象力的路径。第二个演示称为“列出它”,用户可以共享一个目标或主题,然后将其分解为有用的子任务列表。最后,最后一个演示是“谈论它(狗版)”,它允许用户和聊天机器人之间关于狗的开放式对话。

谷歌的工程师团队表示,他们“已经进行了专门的几轮对抗性测试,以发现模型中的其他缺陷。” 此外,他们并没有声称他们的系统是万无一失的。“该模型可能会误解身份术语背后的意图,并且有时在使用它们时无法产生响应,因为它难以区分良性和对抗性提示。它还可以根据其训练数据中的偏见产生有害或有毒的反应,产生基于性别或文化背景的刻板印象和歪曲人们的反应。”

免责声明:本文由用户上传,如有侵权请联系删除!