为避免性别偏见,谷歌AI新工具实行性别代词禁令

Claire| 2018-12-07 来源: 云计算 评论数( 0 )

5月,Alphabet子公司谷歌在Gmail中引入了一项华而不实的功能,即当用户打字的时候,自动为他们补充完整句子。比如,当用户输入“我爱你”时,Gmail可能就会提示“你”或“它”。但是如果用户喜爱的对象是“他”或“她”时,他们就没有那么幸运了。

Gmail产品主管在访问中告诉路透社,谷歌的技术将不再就基于性别的名词给出建议,因为危险性太高,其“Smart Compose”技术可能不正确地预测某人的性和性别,从而得罪用户。

Gmail产品主管Paul Lambert说,一月,一家公司的研究科学家在输入“下周,我将与一个投资者会面”时发现了这个问题,因为之后Smart Compose建议到:“你希望与他会面吗?”而不是“她。”

消费者已经习惯了智能手机上自动更正失言时的尴尬。但在性别问题正在重塑政治和社会之际,谷歌拒绝冒险,批评人士也在以前所未有的严格程度审视人工智能领域中的潜在偏见。

Lambert表示,“并不是所有‘错误’都是平等的。”性别问题是所有错误中最大的一个问题。”

避免Smart Compose陷入性别歧视是有利于谷歌业务的,这证明谷歌比竞争对手更了解人工智能的细微差别,这也是该公司建立品牌亲和力、吸引客户使用其人工智能云计算工具、广告服务和硬件战略所做努力的一部分。

Lambert表示,Gmail拥有15亿用户,当Smart Compose功能推出时,Gmail上来自全球11%的消息都是它帮助编辑的。

Smart Compose是人工智能开发人员所说的自然语言生成(NLG)的一个例子。在NLG中,电脑通过研究文学、电子邮件和网页中单词之间的模式和关系来学习编写句子。

这个系统展示了数十亿个由人类编写的句子,并且变得非常擅长完成常见的短语,但会受到概括性的限制。长期以来,男性一直在金融和科学等领域占据主导地位,因此,技术会根据数据得出结论,投资者或工程师就是“他”。这个问题几乎困扰着每一家大型科技公司。

Lambert说,这个由15名工程师和设计师组成的Smart Compose团队尝试了几种变通方法,但没有一种被证明是没有偏见的。他们认为最好的解决方案也是最严格的一个:限制范围。Lambert说,在“Smart Compose ”给出建议的案例中,只有不到1%的案例受到了性别代词禁令的影响。

“我们所拥有的唯一可靠的技术就是保守。”Prabhakar Raghavan说。Prabhakar Raghavan之前负责监督Gmail和其他服务,而近来职位得到了提升。

新政策

在谷歌决定在性别问题上采取安全措施之前,该公司的预测技术出现了一些引人注目的尴尬。

2015年,该公司就其照片服务的图像识别功能将一对黑人夫妇标记为大猩猩一事进行了道歉。2016年,谷歌改变了其搜索引擎的自动补全功能,因为当用户搜索有关犹太人的信息时,系统会显示反犹太人查询信息“犹太人是邪恶的吗”。

谷歌已经禁止在预测技术中使用脏话和种族歧视言论,也禁止提及竞争对手或悲惨事件。

该公司禁止使用性别代词的新政策也影响了Google’s Smart Reply功能中可能出现的回复列表。这项服务允许用户用“听起来不错”之类的短语快速回复短信和电子邮件。

谷歌使用了人工智能伦理团队开发的测试来发现新的偏见。Lambert说,滥用垃圾邮件的团队会攻击系统,试图像黑客或记者那样思考,找出“有趣”的错误。

美国以外的人会寻找当地的文化问题,Smart Compose很快就将拥有四种语言:西班牙语、葡萄牙语、意大利语和法语。

“你需要大量的人力来进行监督,”工程主管Raghavan说,因为“在每一种语言中,不适当的网络之处必须替换为不同的东西。”

广泛的挑战

谷歌并不是唯一一家致力于解决性别代词问题的科技公司。

作为Thomson Reuters投资的一个受惠者,纽约初创公司Agolo就使用了人工智能来概述商业文件。

在一些文件中,其技术不能可靠地确定哪个代词应当搭配哪个名称。因此,Agolo的首席技术官Mohamed AlTantawy说,这份总结列举了几句话,以为用户提供更多的语境。

他说,冗长的文案总比遗漏细节要好。“最小的错误都会让人失去信心,”AlTantawy说。“人们想要百分百正确性。”

然而,缺陷依然存在。由谷歌和苹果共同开发的键盘预测工具,提出将性别具体化,如使用“男性警察(policeman)”,而不是统称的“警察(police)”,使用“男性推销员(salesman)”,而不是统称的“销售(sales)”。

在Google Translate工具中输入一个中性的土耳其语短语“one is a soldier”,然后系统就会在英语翻译结果中显示“he’s a soldier”。阿里巴巴和微软的翻译工具也是如此。亚马逊(Amazon.com)在为云计算客户提供的翻译服务中也选择了“她”这个词。

人工智能专家呼吁这些公司出示免责声明和多种可能的翻译。

微软(Microsoft)旗下的领英(LinkedIn)表示,在已有一年历史的智能回复(Smart answer)通讯预测工具中,它会避免使用性别代词,以避免潜在的错误。

阿里巴巴和亚马逊均未回应置评请求。

位于北卡罗来纳州Durham的Automated Insights公司的集成工程师John Hegele表示,在复杂系统中,像Smart Compose中的这些警告和限制仍是最常用的应对措施。

Hegele说:“最终目标是一个完全由机器生成的系统,它能神奇地知道要写的内容。我们已经取得了很多进展,但还没有达到目的。”

聚焦云计算,扫描二维码,关注HostUCan云计算

有好的文章希望站长之间帮助分享推广,猛戳这里我要投稿

您需要登录后才可以评论登录|注冊

暂无评论