Google的AI演算法为什幺会存在性别歧视?

Google的AI演算法为什幺会存在性别歧视?

一直以来,透过研究表明,人类研发的机器也能学习到人类看待这个世界的视角,无论其是否有意。对于阅读文本的人工智慧来说,它可能会将「医生」一词与男性优先关联,而非女性,或者图像识别算法也会更大概率的将黑人错误分类为大猩猩。

2015 年,Google

影片来源:youtube

在该影片中,谷歌概述了三种偏见:

互动偏差 :用户可以通过我们和其交互的方式来偏移算法。例如,谷歌把一些参与者召集其起来,并让他们每人画一只鞋,但多半用户会选择画一只男鞋,所以以这些数据为基础的系统可能并不会知道高跟鞋也是鞋子。

潜在偏差 :该算法会将想法和性别、种族、收入等不正确地进行关联。例如,当用户在 Google Search 搜索「医生」时,出现的大多为白人男性。

此前 Quarts 发布了一则相关新闻,该报导称:经普林斯顿大学最新研究成果表明,这些偏见,如将医生与男性相关联,而将护士与女性关联,都来自算法被教授的语言影响。正如一些数据科学家所说:没有好的数据,算法也做不出好的决策。

选择偏差 :据了解,用于训练算法的数据量已经大大超过全球人口的数量,以便对算法实行更好的操作和理解。所以如果训练图像识别的数据仅针对白人而进行,那幺得到的数据也只能来自 AI 的认定。

Google的AI演算法为什幺会存在性别歧视?
photo credit:Qaurtz

去年 6 月,「青年实验室」举办了一次 Beauty.ai 的网络选美大赛。该比赛透过人工智慧分析,收集了 60 万条记录。该算法参考了皱纹、脸部比例、皮肤瑕疵的数量、种族和预测的年龄等等因素。最后结果表明,种族这一因素比预期发挥了更大的作用:在 44 名获奖者当中,其中有 36 人为白人。

事实上,关于算法中含有性别、种族偏见的研究和报导,早已有之。而要消除这些偏见,并不容易。正如微软纽约研究院的高级研究员 Hanna Wallach 所说:

Related Posts