当前位置:主页 > 看点 >

人脸辨识技术歧视黑人?微软/IBM工具误差吓死

作者:admin 来源:未知 更新日期:2018-02-13 13:25

2018年02月12日 13:36中时电子报

黄慧雯/综合报导

Google相簿(Google Photos)在2015年曾闹出将黑人女性自动标籤为「Gorillas」(大猩猩)的事件,引发轩然大波,还被指出有种族歧视意味,对此,Google不仅急速修改演算法,更出面道歉。无独有偶的是,近日有论文以商用人脸辨识技术为研究目标,结果发现人脸辨识技术对黑人女性的辨识错误率最高,彷佛是Google Photos乌龙事件的重演。

在苹果推出iPhone X之后,人脸辨识技术一时成为显学,市场讨论度提升不少。为了让读者更为了解相关技术细节,《纽约时报》报导了MIT媒体实验室(MIT Media Lab)研究员Joy Buolamwini与微软科学家Timnit Gebru共同合作的《Gender Shades: Intersectional Accuracy Disparitiesin Commercia lGender Classification》论文内容。论文中使用了微软、IBM以及旷视(中国大陆一家专注于人脸辨识的新创公司)的人脸辨识API(应用程式介面),来了解这些技术在性别判定的准确性。论文结果发现,以上三家厂商的商用人脸辨识技术中,对于黑人女性的辨识错误率普遍都很高,高于白人男性。

论文利用了自行搜集的一组Pilot Parliaments Benchmark(PPB)资料库进行测试,包含1270张人脸,分别来自三个非洲国家与三个欧洲国家。论文作者在进行研究后,有以下几个发现:

1.所有分类器在辨识男性人脸的表现优于女性人脸(8.1%、20.6%的错误率差别)

2.所有分类器在肤色较白的人脸表现上,优于肤色较深的人脸(11.8%、19.2%的错误率差别)

3.所有分类器在肤色较深的女性人脸上表现最差(错误率在20.8%~34.7%之间)

4.微软与IBM的分类器,在浅肤色男性人脸的表现最好(错误率分别是0%以及0.3%)。而旷视的分类器在肤色较深的男性人脸上表现最好(错误率0.7%)

在论文中的一组385张照片中,白人男性的辨识错误率最高仅1%。(图/翻摄纽约时报)

在论文中一组271张照片中,肤色较黑的女性辨识错误率高达35%。(图/翻摄纽约时报)

报导指出,论文作者之一的Joy Buolamwini乃是黑人女性,他在进行研究之前曾发现人脸辨识工具无法辨识她的脸,只有在她戴上一张白色面具才可行。这让她有了研究此议题的动力。从论文的研究可以发现,确实作者有尝试探讨AI(人工智慧)技术是否存在种族歧视的情况。

2020东京奥运将全面导入脸部辨识系统

科技趣问》整容后 能通过人脸辨识吗?

针对以上发现,各家厂商都进行了回应。结果发现,促成以上结果的主因有二,第一是深色人种资料库的缺乏,以及与深色人种的人脸特徵较难侦测有关。因此,虽然该研究发现人脸辨识工具普遍在辨识肤色较深的女性时错误率较高,但绝不能太快推论当中存有种族歧视的意图。而由此也能发现,训练AI相关模型时,调教出来的工具是否辨识度高、适用性广,跟当初用来训练AI的资料库有着密不可分的关系

()

相关文章:

隐私保护 版权所有 法融在线 Copyright ©2016 http://www.forumelektrik.com All Rights Reserved