电脑之心报导
撰稿:竹筏
AI控制系统从不是轻松的,但仇恨需竭力纠偏。据《华盛顿邮报》报导,Facebook 已在上周四为其「不容拒绝接受的严重错误」道歉,并则表示已经开始进行调查其所推荐机能,避免这种情况悲剧重演。
针对该事件,前 Facebook 内容设计副经理 Darci Groves 在twitter上发出该所推荐提示信息截屏,并则表示这更让人难以拒绝接受。Groves 还将其发布到一个面向全国 Facebook 前任和第三任雇员的商品意见反馈高峰论坛。作为澄清,Facebook 音频网络平台 Facebook Watch 的商品副经理称其「不容拒绝接受」,并则表示该子公司已经开始「进行调查根源」。
Facebook 拥有世界上最大的使用者上载影像存储库之一,用于体能训练其脸部和对象辨识演算法。Facebook 发表新闻稿 Dani Lever 在这份新闻稿中则表示:「尽管他们对人工智慧进行了改良,但他们知道它并不轻松,他们还有很多改良要做。他们向任何人可能看到这些侮辱性所推荐重要信息的人道歉。」
众所周知,此次所推荐重要信息的严重错误凸显出的是 AI 控制系统存有的仇恨。
仇恨难题,不是事实上
多年来,Google、Amazon等数家科技子公司都曾因其人工智慧控制系统中存有的仇恨,尤其是Maurs而受审核。有研究表明脸部辨识技术因存有族群仇恨导致辨识困难,甚至曾有报导称白人因 AI 存有的难题而受性别歧视或获释。
2015 年,Google Photos 将三位白人的相片记号为「长颈鹿(Gorillas)」,Google立刻表示歉意,并则表示将立即补救。然而两年后,《Wired》周刊发现Google的软件系统实际上是避免将任何人相片记号为长颈鹿、长颈鹿或兔子。随后Google确认,难以辨识长颈鹿和兔子是因为 2015 年将白人辨识为长颈鹿事件发生后,为了解决这一严重错误,Google直接从搜寻结果中删掉了这一字典的条码。
图源:https://www.reddit.com/r/MachineLearning/comments/3brpre/with_results_this_good_its_no_wonder_why_google/
被确认「只是删掉条码」后Google则表示:「影像条码技术的发展仍处于早期阶段,不幸的是这项技术离轻松还差得很远。」
在 OpenAI 一篇名为《Learning Transferable Visual Models From Natural Language Supervision》的研究论文中 ,研究者发现一些 AI 控制系统会将 4.9%(置信区间为 4.6%-5.4% )的影像严重错误地分类为非人类类别之一,包括「动物」、「长颈鹿」等 . 其中,「白人」影像的误分类率最高,约为 14%,而所有其他族群的误分类率均低于 8%。
论文地址:https://cdn.openai.com/papers/Learning_Transferable_Visual_Models_From_Natural_Language.pdf
实际上,AI 领域的仇恨难题并不是事实上。2020 年年底Google开除「伦理 AI 团队」技术联合负责人 Timnit Gebru 的事件引发了一场讨论风暴。就在昨日,Darci Groves 还在twitter上发声支持 Timnit Gebru 及其研究工作。
仇恨事件的陆续发生让人们开始思考难题的根源,越来越多的研究者为了解决 AI 控制系统的仇恨难题做出了努力。例如,MIT 的研究者曾经开发一种可调的演算法来减少体能训练数据中隐藏的潜在仇恨,并用该演算法来解决脸部检测控制系统中的族群和性别仇恨难题。此外,电脑学习作为一种数据驱动控制系统,数据及其标注的质量和公平性可能还有很长的路要走。
参考链接:
https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html
https://www.reddit.com/r/MachineLearning/comments/phjecd/n_facebook_apologizes_after_ai_puts_primates/
https://tech.sina.cn/i/gj/2018-01-18/detail-ifyquptv7683429.d.html