Bard是个“病态的骗子”?谷歌员工:急于赢得AI之战将导致科技伦理溃败

新浪科技讯 北京时间4月20日上午消息,据报道,在3月份面向公众推出人工智能聊天机器人Bard的前不久,谷歌要求内部员工测试这个新工具。

根据内部讨论的截图,一名员工的结论是,Bard是个“病态的骗子”。另一名员工则表示,Bard“令人尴尬”。一名员工写道,当他们向Bard询问如何降落飞机时,聊天机器人往往给出会导致坠机的建议。还有一名员工表示,Bard提供的关于潜水的建议“可能会导致重伤或死亡”。

不过,谷歌依然推出了Bard。根据多名在职员工和前员工的说法,以及谷歌的内部文件,作为一家以往非常受信任的互联网搜索巨头,谷歌通过Bard提供的是低质量的信息,目的是跟上竞争对手,同时将科技伦理承诺放在了很低的优先级来考虑。2021年,谷歌曾经承诺,将人工智能伦理研究团队扩大一倍,并投入更多资源评估人工智能技术的潜在危害。然而,随着竞争对手OpenAI的聊天机器人ChatGPT在2022年11月首次亮相并大受欢迎,谷歌开始匆忙将生成式人工智能技术融入其最重要的产品中。

对这项技术本身来说,这样做带来的发展速度明显更快,并可能会给社会产生深远的影响。谷歌的在职员工和前员工们表示,谷歌承诺加强的科技伦理团队目前没有话语权,士气低落。他们透露,负责新产品安全和科技伦理影响的员工已被告知,不要妨碍或试图扼杀正在开发中的任何生成式人工智能工具。

谷歌的目标是围绕这项尖端技术振兴其日益成熟的搜索业务,抢在微软支持的OpenAI前面,推动生成式人工智能应用进入全球数千万的手机和家庭,并赢得竞争。

权益组织Signal Foundation主席、谷歌前经理梅雷迪思·惠特克(Meredith Whittaker)表示:“人工智能伦理已经退居次要地位。如果科技伦理不能被置于利润和增长之上,它们最终就不会起作用。”

对此谷歌表示,负责任的人工智能仍是该公司的首要任务。谷歌发言人布莱恩·加布里艾尔(Brian Gabriel)表示:“我们将继续投资将人工智能原则应用于技术的团队。”从事负责任人工智能研究的团队在1月份的一轮裁员中至少减员3人,其中包括技术治理和项目主管。此次裁员影响了谷歌及其母公司的约1.2万名员工。

多年来,谷歌一直引领着支撑当前人工智能发展的大部分研究,然而在ChatGPT推出时,谷歌还没有将对用户友好的生成式人工智能技术集成到产品中。谷歌的员工们说,以往在将新技术应用于搜索和其他重要产品时,谷歌会谨慎地评估自身的能力和道德伦理考量。

然而去年12月,谷歌高级管理层发布了“红色警报”,并改变了对风险的偏好。员工们说,谷歌的领导团队决定,只要把新产品定位为“实验”,公众就会原谅其中的缺陷。不过,谷歌仍然需要让科技伦理团队加入进来。当月,人工智能治理负责人简恩·詹纳伊(Jen Gennai)召开了负责任创新团队的会议,该团队负责维护谷歌的人工智能原则。

詹纳伊建议,为了加快产品发布的步伐,谷歌可能有必要做出一些妥协。谷歌为几个重要类别的产品进行打分,以衡量这些产品是否准备好向公众发布。在一些领域,例如儿童安全,工程师仍然需要100%解决潜在问题。但她在会上表示,在其他领域,谷歌可能没时间继续等待。她说:“‘公平’可能不是,并不需要达到99分。在这个方面,我们可能只要到80分,85分,或更高的水平,就可以满足产品发布的需求。”这里的“公平”指的是减少产品的偏见。

今年2月,谷歌一名员工在内部消息群中提出:“Bard的问题不仅仅是毫无用处:请不要发布这款产品。”有近7000人查看了这条消息。其中许多人都认为,在简单的事实问题上,Bard的回答自相矛盾,甚至大错特错。然而消息人士透露,詹纳伊在次月驳回了团队成员提交的风险评估报告。当时报告的结论是Bard尚未做好准备,可能造成危害。不久之后,谷歌就面向公众开放了Bard,并将其称作是一次“实验”。

在一份声明中,詹纳伊表示,这不仅仅是她这个层级的决定。在团队做出评估之后,她“列出了潜在风险清单,并将分析结果”升级提交给产品、研究和业务线的高级管理者。她说,该团队随后判断,“可以通过有限制的实验性发布的形式向前推进,包括继续进行预训练,提高安全围栏,以及做出适当的免责声明”。

作为一个整体,硅谷仍然在努力解决竞争压力和技术安全之间的矛盾。“人道技术研究中心”在最近的一次演示中表示,人工智能研究者与专注于人工智能安全的研究人员的数量之比达到30:1。这表明,在大型组织中提出对人工智能的担忧往往会孤掌难鸣。

随着人工智能的加速发展,人们正在越来越担忧人工智能对社会的不利影响。作为ChatGPT和Bard背后的技术,大语言模型从新闻报道、社交媒体贴文和其他互联网信息源处获得大量文字信息,随后用这些信息来训练软件,让软件根据用户的输入信息或问题自动预测并生成内容。这意味着,从本质上来看,这些产品有可能会产生攻击性、有害或不准确的言论。

然而,ChatGPT在首次亮相时引发了轰动。到今年年初,这方面的发展已经无法回头。2月份,谷歌开始发布一系列的生成式人工智能产品,推出聊天机器人Bard,随后升级了视频平台YouTube。当时谷歌表示,YouTube的创作者很快就可以在视频中进行虚拟换装,以及使用生成式人工智能创建“奇幻的电影场景”。两周后,谷歌宣布谷歌云加入新的人工智能功能,展示了谷歌Docs和Slides等服务如何自动创建演示文稿、销售培训文件和电子邮件。同一天,谷歌还宣布将把生成式人工智能融入医疗健康产品线。员工们表示,他们担心,这样的发展速度意味着谷歌没有足够的时间来研究人工智能潜在的危害。

是否应该以符合科技伦理的方式去开发尖端的人工智能技术,长期以来这一直是谷歌内部争论的一个话题。在过去几年里,谷歌产品发生的错误备受瞩目。例如,在2015年一起令人尴尬的事件中,谷歌相簿错误地将一名黑人软件开发者和他朋友的照片标记为“大猩猩”。

三年后,谷歌表示,没有修复底层的人工智能技术,而是删除了搜索关键词“大猩猩”、“黑猩猩”和“猴子”的所有结果。根据谷歌的说法,“一群不同背景的专家”评估了这一解决方案。该公司还成立了人工智能伦理部门,主动开展相关研究,确保人工智能对用户更加公平。

然而根据多名在职员工和前员工的说法,一个重要转折点是人工智能研究员蒂姆尼特·格布鲁(Timnit Gebru)和玛格丽特·米切尔(Margaret Mitchell)的离职。他们曾共同带领谷歌的人工智能伦理团队。然而,因为一场关于谷歌人工智能研究公平性的争议,他们分别在2020年12月和2021年2月离开。最终,负责管理他们工作的计算机科学家萨米·本吉奥(Samy Bengio)和其他几名研究者也在几年时间里纷纷离职,加入了谷歌的竞争对手。

丑闻发生后,谷歌也采取措施试图恢复公众声誉。负责任人工智能团队在当时的工程副总裁玛丽安·克罗克(Marian Croak)的领导下进行了重组。她承诺,将把人工智能伦理团队的规模扩大一倍,并强化该团队与公司其他部门的联系。

不过即使在公开发表声明之后,一些人也发现,在谷歌从事人工智能伦理工作难度很大。一名前员工表示,他们提出要求,解决机器学习公平性的问题。然而他们也发现,自己往往不被鼓励这样做,以至于甚至影响了他们工作的绩效打分。他表示,经理们也提出抗议,认为人工智能伦理问题的提出妨碍了他们“真正的工作”。

那些继续在谷歌从事人工智能伦理研究的员工则面临两难:如何既能保住自己在谷歌的工作,又能继续推进这方面研究。亚伦·穆罗希(Nyalleng Moorosi)曾是谷歌的研究员,目前则在格鲁布创立的“分布式人工智能研究所”担任高级研究员。她表示,人工智能伦理研究岗位的设立就是为了说明,技术可能没有做好大规模发布的准备,而公司需要放慢速度。

两名员工表示,到目前为止,谷歌对产品和功能的人工智能伦理审核几乎完全是自愿性质的,仅有的例外是研究论文的发表,以及谷歌云对客户合作和产品发布的审核。生物识别、身份识别,以及与儿童相关的人工智能研究必须由詹纳伊的团队进行“敏感话题”审核,但其他项目不一定需要。不过,一些员工也会在没有被要求的情况下联系人工智能伦理团队。

尽管如此,当谷歌产品和工程团队的员工试图了解,谷歌的人工智能为何在市场上进展缓慢时,他们往往会注意到公众对人工智能伦理的关切。但谷歌的一些人相信,新技术应当更快地被提供给公众,以便通过公众反馈对技术进行优化。

另一名前员工表示,在红色警戒发布之前,谷歌工程师可能很难接触到公司最先进的人工智能模型。他说,谷歌的工程师经常会通过研究其他公司的生成式人工智能模型来进行头脑风暴,探索这项技术的可能性,随后再去研究如何在公司内部去实现这一技术。

谷歌前产品经理、在2020年之前一直从事谷歌聊天机器人开发的高拉夫·内马德(Gaurav Nemade)表示:“毫无疑问我看到‘红色警戒’和OpenAI的触动给谷歌带来的积极变化。他们真的能成为领导者,在自己的游戏中挑战OpenAI吗?”近期的一系列变化,例如三星考虑在手机中用微软必应替换谷歌作为默认搜索引擎,充分表明了技术的先发优势有多么重要。微软必应也采用了ChatGPT的技术。

谷歌的一些员工表示,他们认为谷歌已经对最新的生成式人工智能产品进行了足够的安全检查,并且Bard比竞争对手的聊天机器人更安全。然而,现在的当务之急是快速发布生成式人工智能产品,因此再怎么强调科技伦理问题都是徒劳的。

研发新人工智能功能的团队目前正在封闭状态中,因此普通的谷歌员工很难看到谷歌人工智能技术的全貌。以往,员工还可以通过公司的邮件组和内部频道来公开表达自己的疑虑,但现在谷歌以减少毒性为由提出了一系列社区指南,限制员工这样去做。几名员工表示,他们认为这些限制是控制言论的一种方式。

米切尔表示:“这带来了挫败感。我们的感觉是,我们到底在做什么?”即使谷歌没有明确的指令,要求停止科技伦理的工作,但在当前的氛围下,从事这类工作的员工会很明显的感觉到,自己不受支持,最终可能会因此减少工作量。“在谷歌管理层公开讨论科技伦理问题时,他们倾向于探讨假想的未来,即全能的技术无法被人类控制,而不太涉及已经可能带来危害的日常场景。这种做法也被一些业内人士批评为一种营销形式。

曾在谷歌担任研究科学家的艾尔马蒂·艾尔玛穆迪(El-Mahdi El-Mhamdi)于今年2月从谷歌离职,原因是谷歌拒绝正面探讨人工智能伦理问题。他表示,去年底他参与合著的一篇论文提出,从数学上来看,基础性的人工智能模型不可能同时做到大规模、健壮,以及保障隐私安全。

他表示,谷歌通过雇佣关系对他参与的研究提出质疑。随后,他并没有为自己的学术研究辩护,而是直接放弃了与谷歌的雇佣关系,选择了学术身份。他说:”如果你想留在谷歌,就必须为整个系统服务,而不是与其发生冲突。“

(责任编辑:王治强 HF013)

文章内容来自网络,如有侵权,联系删除、联系电话:023-85238885

参与评论

请回复有价值的信息,无意义的评论将很快被删除,账号将被禁止发言。

评论区