当地时间周四,谷歌人工智能伦理团队负责人之一蒂姆尼特 · 格布鲁 (Timnit Gebru)表示,自己被谷歌解雇,而原因是自己发送的一封电子邮件让公司管理层认为其举动 “与公司对谷歌经理的期望不一致”。
这封电子邮件是对谷歌要求格布鲁撤回自己与其他 6 人合著的人工智能伦理学论文提出不同意见。论文合著者中还有 4 名谷歌员工。格布鲁周四接受采访时表示,如果自己不想撤回这篇已经提交给明年行业会议审议的论文,谷歌要求至少要删掉谷歌员工的名字。
格布鲁向谷歌研究部门副总裁梅根 · 卡奇利亚 (Megan Kacholia)寻求解释,并告诉后者,如果对这篇论文的处理方式没有更多讨论,她计划在一段过渡期后辞职。她还想就团队未来可能进行的类似研究项目讨个明确说法。
她说:“我们就是人工智能伦理团队,当然会写关于人工智能的问题。”
与此同时,格布鲁还参与了一个名为 Google Brain Women and Allies 的电子邮件交流小组,评论其他人正在撰写的一份报告,报告内容是疫情期间,谷歌雇佣的女性少之又少。格布鲁坦言,以自己的经验判断这种报告不会有效果,因为在谷歌没有人会被追究责任。她提到了自己在提交人工智能论文方面的经验,并将其与报告链接起来。
格布鲁在邮件中写道:“不要再写这种报告了,没什么用。”“这种内容不可能有任何效果。”
第二天格布鲁说自己被解雇了,相关邮件来自谷歌人工智能部门负责人杰夫 · 迪恩 (Jeff Dean),称谷歌无法满足她的要求,因此尊重她离开谷歌的决定。根据格布鲁发布的推文,邮件还说,“你昨晚发给非管理人员的邮件某些内容与一个谷歌经理并不相称。”
“这是彻底的沉默,”格布鲁谈到谷歌对她论文采取的行动时说。“你甚至不能发出科学的声音。”
谷歌代表没有回复记者的多次置评请求。
格布鲁的研究论文涉及处理大型语言模型可能存在的伦理问题,OpenAI、谷歌和其他研究人员都正在这一领域进行研究。格布鲁说,她不知道谷歌为什么会担心这篇论文。她说,这篇论文事实上已经得到了主管的批准,并提交给了谷歌其他员工征求意见。
格布鲁说,谷歌要求其研究人员发表的所有论文都必须事先获得批准。公司告诉她,这篇论文没有遵循适当程序。
这篇论文指出了使用大型语言模型来训练算法的危险性。论文称,这些模型基本上是通过分析来自互联网的语言进行训练的,但这些语言并不能反映全球不能上网的大部分人的表达方式。格布鲁强调风险是这些模型只会反映那些有幸成为训练数据的一部分人的世界观。
作为斯坦福人工智能实验室的合作方,格布鲁也是人工智能道德应用领域的主要倡导者之一。她因 2018 年一项具有里程碑意义的研究而闻名,该研究显示,面部识别软件对黑皮肤女性的识别错误率高达 35%,而对白人男性的识别则近乎精确。
她还直言不讳地批评包括谷歌在内的科技公司缺乏多样性,以及在待遇方面对黑人员工不公平。格布鲁说,自己被解雇是在向谷歌其他员工传递一个信息,让他们不要说话。
格布鲁周三晚上公布了被解雇的消息后,得到谷歌一些同事和其他同行的支持。
一年前,谷歌以违反数据安全政策为由解雇了 4 名员工。格布鲁当时公开支持那些失去工作的人。而对谷歌来说,格布鲁被解雇的当口正值公司面临美国国家劳资关系委员会 (NLRB)投诉谷歌对员工进行非法监视、讯问或停职。
格布鲁是公司内部少有的公开批评声音。她讲述同事和主管如何试图控制她的话语,为骚扰或种族主义行为找借口,或者无视她的担忧。
当谷歌考虑让格布鲁管理另一名员工时,就告知她在多样性问题上的直言不讳对其不利。有人担心,如果她这么不开心,她是否还能管理其他人。“人们不知道这些问题存在的程度,因为你不能谈论它们,而一旦你谈论了,你就成了问题,”格布鲁当时说。