编者按:替我们的生活做决定的算法越来越多,让我们越来越担心。这些算法决定了我们在互联网上看的是什么、我们多大程度上会变成受害者或者教唆犯罪的人。算法使用数据集合进行校验,但是这些数据集合并不包括各个不同的人群。

相关阅读:学坏容易学好难!人工智能将继承人类的种族和性别偏见

这可能是一个令人感到意外的结果:依赖算法做决定本质上具有倾向性。用谷歌、百度、必应等搜索引擎以“手”或者“婴儿”搜索图片,你会发现,这些图片大部分都是白皮肤。

使用bing搜索“婴儿”图片,首屏只有白皮肤婴儿的结果。

全球白网,平衡搜索结果的肤色占比

2015年,平面设计师Johanna Burai在谷歌上搜索人类“手”的图片,发现谷歌搜索最前面的结果只有白皮肤的手。随后,她发起了“全球白网”(World White Web)计划。通过她的网站,照片上传者分享不同肤色的照片,她的网站就可以提供“可选择”的手部图片,用来平衡不同的肤色占比,因此,谷歌等搜索引擎就可以抓取不同肤色的照片。

谷歌说,它的图片搜索结果是网络内容的反映,包括了某种类型的照片出现的频率、它们在网络上添加的描述。这些反映并不涉及它的“价值观”。

使用谷歌搜索“手”的图片,结果也一样。

Burai女士现在已经不维护她的网站了,她相信事情已经有所改观。她说:“我认为事情正在好转,人们看到了问题。当我发起这个计划的时候,人们很震惊,而现在对于这个问题,人们已经给予了更多的关注。”

算法正义联盟,检测算法是否具有偏见

2016年11月,麻省理工学院(MIT)的研究生Joy Buolamwini创办了算法正义联盟(AJL)。她试着在一个项目中使用面部识别软件,但是该软件不能加载她的面部,因为Buolamwini的肤色很深。

她说:“我肤色很深,而当我戴上白色面具的时候,系统更容易识别。戴上面具其实已经不能说是一张脸了,更适合称呼它为模型,而电脑可以轻易读取该模型。”

Joy Buolamwini发现,她的电脑能识别白色面具,而识别不了她肤色为黑色的脸。

这已经不是她第一次遇到类似的问题了。五年前,她不得不让一个皮肤颜色更浅的室友来帮助她。

 “我感慨万千。我很沮丧。因为这是一个五年还没有被解决的问题,”她说:“我很震惊,因为白色面具居然那么容易被识别。”

Buolamwini女士说:“如果给你的系统做测试的人跟你很像的话,你的系统会运行地很好,然而你永远也不可能发现这其中有问题。”她把AJL的反响描述为“巨大且强烈的”。

老师们想要把她的工作展示给学生;研究员想请她检测他们自己的算法是否有偏见的迹象;人们向她报告自己的经历……这些人看起来似乎不少:一位研究员想检测皮肤癌确诊算法是否在深色皮肤中有效。

多样性报告,硅谷巨头们本身不具备多样性

Buolamwini女士认为,这种情况的出现,部分原因是技术行业本身就有着证据确凿的多样性缺失。

每年,科技巨头都会发布多样性报告,它们揭示了严肃的现状。

谷歌2016年1月份的最新数据显示,技术人员有19%是女性,只有1%是黑人。

微软2016年9月的数据显示,17.5%的技术人员是女性,2.7%的技术人员是黑人或者非裔美国人。

Facebook2016年6月的数据指出,美国国内的技术人员有17%是女性,1%是黑人。

有偏向的审美,数据集合单一的缺陷

去年有一场特殊的选美比赛,它收集了100个不同国家的大约6000张自拍,并让算法来判定选美结果。在44个获胜者当中,只有一个是非白人,极少数是亚洲人。

该选美比赛当中,18-29岁年龄段的女性获胜者之三,没有黑人,其他年龄段也没有。

Beauty.AI网站的首席科学家Alex Zhavoronkov告诉《卫报》,这个结果有缺陷,因为校验人工智能的数据集合不够具有多样性。他同时说道:“如果数据集合中白种人占比过大,那么实际上有可能得到有偏见的结果。”

更严重的是,根据网站Propublica的研究,人工智能软件在美国被用来预测哪一位罪犯可能再次犯罪时,它被发现更容易错误地把黑人罪犯识别为高再犯风险的人,而把白人罪犯识别为低再犯风险的人。

软件公司对该研究表示怀疑。

技术乐观主义者的解决之道

犹他大学计算机学院的副教授Suresh Venkatasubramanian(天呐名字好长)说,趁着问题仍然可见,人工智能的创造者现在就需要行动。

他对BBC说:“最坏的可能就是,事情发生变化了,而我们不再意识到它。换言之,值得关心的是,因为我们视根据算法作决策为理所应当,其中的偏见将从我们承认的人类偏见中,转移到我们不再承认,因此也无法察觉的事物上。”

我们是否创造了具有偏见的机器人呢?

然而他是一个技术乐观主义者。

他说:“所有的算法都表现出种族主义在我看来讲不通。并非因为这不可能,而是因为那不是算法实际运行的方式。过去三四年间,已讨论了关于算法的问题和可能的解决方法。“

他提供了一些方法:

  • 创造更好、更具有多样性的数据集合来校验算法(例如:算法通过处理成千上万张图片进行学习);

  • 分享软件供应商的最好的实践;

  • 构建能够解释决定的算法,从而任何偏见都能够被理解。

Buolamwini女士说:“我现在开始想一个问题,老年人在科技领域也并没有自己的声音,我们有没有检测并确保这一系统对老年人同样有效呢?因为一些超重人士报告了问题,我就想,我们有没有关注并确保这一系统对超重人群同样有效呢?这绝对是击中人们心弦的问题。”

她现在也挺乐观的:“如果人们能够更多地意识到潜在的问题,她对现状的改善充满希望。其实我们所创造的任何技术,它们都是人类抱负和局限的反映。如果我们在包容性上充满局限性,这将会反映在我们开发的机器人上,或着纳入机器人的技术上。”

人工智能的种族主义源于算法,若现在不解决未来将更难

发表评论

电子邮件地址不会被公开。 必填项已用*标注