未来索引
开启左侧

人工智能的种族主义源于算法,若现在不解决未来将更难

[复制链接]
邢远 发表于 2017-4-22 11:01:20 来自手机 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题
240c8c771486dfd31046b02ceaf065e1.jpg 来源:36氪
概要:算法决定了我们生活中的很多东西,但是它在多样性上还有待改进。

算法决定了我们生活中的很多东西,但是它在多样性上还有待改进。
替我们的生活做决定的算法越来越多,让我们越来越担心。这些算法决定了我们在互联网上看的是什么、我们多大程度上会变成受害者或者教唆犯罪的人。算法使用数据集合进行校验,但是这些数据集合并不包括各个不同的人群。



这可能是一个令人感到意外的结果:依赖算法做决定本质上具有倾向性。用谷歌、百度、必应等搜索引擎以“手”或者“婴儿”搜索图片,你会发现,这些图片大部分都是白皮肤。
fbfb10affce23904015a2c4cd03cd7fa.jpg
使用bing搜索“婴儿”图片,首屏只有白皮肤婴儿的结果。



全球白网,平衡搜索结果的肤色占比



2015年,平面设计师Johanna Burai在谷歌上搜索人类“手”的图片,发现谷歌搜索最前面的结果只有白皮肤的手。随后,她发起了“全球白网”(World White Web)计划。通过她的网站,照片上传者分享不同肤色的照片,她的网站就可以提供“可选择”的手部图片,用来平衡不同的肤色占比,因此,谷歌等搜索引擎就可以抓取不同肤色的照片。


谷歌说,它的图片搜索结果是网络内容的反映,包括了某种类型的照片出现的频率、它们在网络上添加的描述。这些反映并不涉及它的“价值观”。
96c2130f0102a7aa69a6ce35a9eadae0.jpg
使用谷歌搜索“手”的图片,结果也一样。



Burai女士现在已经不维护她的网站了,她相信事情已经有所改观。她说:“我认为事情正在好转,人们看到了问题。当我发起这个计划的时候,人们很震惊,而现在对于这个问题,人们已经给予了更多的关注。”


算法正义联盟,检测算法是否具有偏见



2016年11月,麻省理工学院(MIT)的研究生Joy Buolamwini创办了算法正义联盟(AJL)。她试着在一个项目中使用面部识别软件,但是该软件不能加载她的面部,因为Buolamwini的肤色很深。
她说:“我肤色很深,而当我戴上白色面具的时候,系统更容易识别。戴上面具其实已经不能说是一张脸了,更适合称呼它为模型,而电脑可以轻易读取该模型。”
cc73e4da4b4cb9885f7d7e0106591590.jpg
Joy Buolamwini发现,她的电脑能识别白色面具,而识别不了她肤色为黑色的脸。



这已经不是她第一次遇到类似的问题了。五年前,她不得不让一个皮肤颜色更浅的室友来帮助她。



“我感慨万千。我很沮丧。因为这是一个五年还没有被解决的问题,”她说:“我很震惊,因为白色面具居然那么容易被识别。”


Buolamwini女士说:“如果给你的系统做测试的人跟你很像的话,你的系统会运行地很好,然而你永远也不可能发现这其中有问题。”她把AJL的反响描述为“巨大且强烈的”。
老师们想要把她的工作展示给学生;研究员想请她检测他们自己的算法是否有偏见的迹象;人们向她报告自己的经历……这些人看起来似乎不少:一位研究员想检测皮肤癌确诊算法是否在深色皮肤中有效。


多样性报告,硅谷巨头们本身不具备多样性



Buolamwini女士认为,这种情况的出现,部分原因是技术行业本身就有着证据确凿的多样性缺失。


每年,科技巨头都会发布多样性报告,它们揭示了严肃的现状。
谷歌2016年1月份的最新数据显示,技术人员有19%是女性,只有1%是黑人。
微软2016年9月的数据显示,17.5%的技术人员是女性,2.7%的技术人员是黑人或者非裔美国人。
Facebook2016年6月的数据指出,美国国内的技术人员有17%是女性,1%是黑人。



有偏向的审美,数据集合单一的缺陷。



去年有一场特殊的选美比赛,它收集了100个不同国家的大约6000张自拍,并让算法来判定选美结果。在44个获胜者当中,只有一个是非白人,极少数是亚洲人。
e669a854c550db4a5ff69c6c4d821694.jpg
该选美比赛当中,18-29岁年龄段的女性获胜者之三,没有黑人,其他年龄段也没有。
Beauty.AI网站的首席科学家Alex Zhavoronkov告诉《卫报》,这个结果有缺陷,因为校验人工智能的数据集合不够具有多样性。他同时说道:“如果数据集合中白种人占比过大,那么实际上有可能得到有偏见的结果。”



更严重的是,根据网站Propublica的研究,人工智能软件在美国被用来预测哪一位罪犯可能再次犯罪时,它被发现更容易错误地把黑人罪犯识别为高再犯风险的人,而把白人罪犯识别为低再犯风险的人。
软件公司对该研究表示怀疑。


技术乐观主义者的解决之道



犹他大学计算机学院的副教授Suresh Venkatasubramanian(天呐名字好长)说,趁着问题仍然可见,人工智能的创造者现在就需要行动。


他对BBC说:“最坏的可能就是,事情发生变化了,而我们不再意识到它。换言之,值得关心的是,因为我们视根据算法作决策为理所应当,其中的偏见将从我们承认的人类偏见中,转移到我们不再承认,因此也无法察觉的事物上。”
240c8c771486dfd31046b02ceaf065e1.jpg
我们是否创造了具有偏见的机器人呢?

然而他是一个技术乐观主义者。

他说:“所有的算法都表现出种族主义在我看来讲不通。并非因为这不可能,而是因为那不是算法实际运行的方式。过去三四年间,已讨论了关于算法的问题和可能的解决方法。“
他提供了一些方法:


创造更好、更具有多样性的数据集合来校验算法(例如:算法通过处理成千上万张图片进行学习);
分享软件供应商的最好的实践;
构建能够解释决定的算法,从而任何偏见都能够被理解。
Buolamwini女士说:“我现在开始想一个问题,老年人在科技领域也并没有自己的声音,我们有没有检测并确保这一系统对老年人同样有效呢?因为一些超重人士报告了问题,我就想,我们有没有关注并确保这一系统对超重人群同样有效呢?这绝对是击中人们心弦的问题。”


她现在也挺乐观的:“如果人们能够更多地意识到潜在的问题,她对现状的改善充满希望。其实我们所创造的任何技术,它们都是人类抱负和局限的反映。如果我们在包容性上充满局限性,这将会反映在我们开发的机器人上,或着纳入机器人的技术上。”


来源:36氪


2017未来科技论坛暨”未来科技资助计划”发布



人工智能学家/未来科技学院与中科创星,中国科学院虚拟经济与数据科学研究中心,金融发展局等机构联合举办未来科技论坛和发起“未来科技资助计划”,联合科技企业家、风险投资家,讲解当前人工智能,互联网,脑科学,机器人最新进展,对科学家的前沿科学研究和科技创业进行支持。为诞生中国的重大原始科学创新和科技独角兽提供燃料和催化剂。

主办单位:中国科学院虚拟经济与数据科学研究中心
承办单位:人工智能学家/未来科技学院  
支持单位:中科创星,泰智会,常州经开区金融发展局
会议时间:2017年4月26日
会议地点:北京市海淀区中关村丹棱街1号互联网金融中心1楼泰智会大厅
参会嘉宾:青年科学家代表,科技企业家代表,投资界代表、政府代表
未来科技论坛议题:
1.邀请人工智能,互联网,脑科学,机器人等方面的著名科学家进行最新科技前沿进展的报告
2.邀请著名投资人,科学家,科技企业家从不同角度阐述如何支持科学家的前沿科学研究和科技创业。
3.人工智能学家/未来科技学院发布科学资助平台“Funding Future”,并与合作伙伴联合启动“未来科技资助计划”
报名参加论坛请点击“阅读原文”
该会员没有填写今日想说内容.
高级模式
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关注2973

粉丝3237

帖子9934

发布主题
阅读排行 更多
广告位
!jz_fbzt! !jz_sgzt! !jz_xgzt! 快速回复 !jz_sctz! !jz_fhlb! 搜索

智能技术共享平台 - 未来论

关注服务号

进入小程序

全国服务中心:

运维中心:天津

未来之家:天津 青岛 济南 郑州 石家庄

                商务邮箱:xy@mywll.com

Copyright © 2012-2021 未来派 未来论 (津ICP备16000236号-5)