农企新闻网

皮肤不白,会遭到人脸辨认技术的 “歧视”?

发布者:王龙华
导读【腾讯科技编者按】《纽约时报》近日宣布文章,称人脸辨认技术的开展近来可谓日新月异,目前曾经有一些商业软件可以用来辨认照片中人物的性别,当照片中的人是白人时,99%的状况下辨认后果都是正确的,但假如照片中是黑人,错误率就比拟高了。以下为原文内容:人脸辨认技术在辨认不同种族和性别的人脸时,效果有多大的不同呢?一项新的研讨对此停止了测量,后果标明,肤色越黑,辨认率就越低。在辨认黑皮肤女性时,它的错误率简

【腾讯科技编者按】《纽约时报》近日宣布文章,称人脸辨认技术的开展近来可谓日新月异,目前曾经有一些商业软件可以用来辨认照片中人物的性别,当照片中的人是白人时,99%的状况下辨认后果都是正确的,但假如照片中是黑人,错误率就比拟高了。以下为原文内容:

人脸辨认技术在辨认不同种族和性别的人脸时,效果有多大的不同呢?一项新的研讨对此停止了测量,后果标明,肤色越黑,辨认率就越低。在辨认黑皮肤女性时,它的错误率简直到达了35%。

MIT媒体实验室的研讨员乔伊o布兰威尼(Joy Buolamwini)停止的这项研讨,显示了理想世界中的一些成见曾经浸透到了人工智能(AI)范畴,由于人脸辨认技术就是树立在AI之上的。

在计算机视觉技术中,颜色很重要

运用微软、IBM和Face ++的人脸辨认算法在辨认黑人女性时,错误率高于辨认白人男性。

皮肤不白,会遭到人脸识别技术的 “歧视”?

在一组385张肤色较白的男性照片中,性别判别的错误率为1%。

皮肤不白,会遭到人脸识别技术的 “歧视”?

在一组296张肤色较白的女性照片中,性别判别的错误率为7%。

皮肤不白,会遭到人脸识别技术的 “歧视”?

在一组318张肤色较黑的男性照片中,性别判别的错误率为12%。

皮肤不白,会遭到人脸识别技术的 “歧视”?

在一组271张肤色较黑的女性照片中,性别判别的错误率为35%。

在古代AI技术中,数据是关键。 用来训练AI的数据有多好,AI效果就会有多好。假如训练数据中的白人男性比黑人女性多,那么它辨认黑人女性的才能就比拟差。

另一项研讨报告显示,在一种取得普遍运用的人脸辨认数据集中,75%以上的图像都是男性,80%以上是白人。

因而这项新的研讨就提出了一个成绩:当AI取得的投资额和采用量日益增长时,AI的公道性和问责性又该怎样保证呢?

明天,商业公司正以各种方式部署人脸辨认软件,其中就包括依据社交媒体上的材料图片来对产品停止精准宣传。但是,一些公司也正在尝试把人脸辨认和其他AI技术归入到一些自动决策进程中,比方招聘和存款决策。

乔治城大学法学院的研讨人员估量,执法部门的人脸辨认网络涵盖了1.17亿美国成年人的数据(警方拍摄的罪犯或嫌疑犯的面部照片),而非洲裔美国人最有能够被挑出来,由于他们在这个数据库中占的比例格外高。

人脸辨认技术遭到的监管还很少

犹他大学计算机迷信教授Suresh Venkatasubramanian说:“如今是时分了,我们要仔细研讨AI零碎的任务方式和成绩,要从社会角度向它们问责。”

之前曾经有一些计算机视觉技术犯错的例子,显示存在着歧视。例如在2015年,谷歌的图像辨认照片app把非洲裔美国人标志为“大猩猩”,后来谷歌为此道了歉。

哈弗福德学院的计算机迷信家索列尔o弗里德勒(Sorelle Friedler)说,专家们早就疑心人脸辨认软件对不同人群的效果不同。

“但这是我所晓得的第一个显示存在这种不同的研讨,”弗里德勒说。

28岁的布兰威尼是非裔美国计算机迷信家,已经历过人脸辨认成见。她在乔治亚理工学院就读本科时,人脸辨认技术对她的白人冤家们来说效果很好,但是却无法辨认出她的脸。她事先觉得这个缺陷在不久之后就会修复。

但是几年后,当她进入MIT媒体实验室时,又再次遇到了这个成绩——只要当她戴上白色面具后,软件才干将她的脸辨认出来。

那时,人脸辨认软件正在日益走出实验室蓬勃发展的行业不仅给从业者提供了巨大的发展机遇,也带来了全新的挑战。,进入主流社会。

“这是个很严肃的成绩,”她回想说。 “是时分做点事情了。”

于是她将留意力转向与数字技术中的成见作妥协。布兰威尼如今在读博,作为罗德学者和富布赖特研讨员,她倡议“算法问责制”,努力于让自动化决策变得愈加通明、有解释力,以及公道。

她在TED上关于“编码成见”的演讲视频阅读量曾经超越94万次,她还创建了 “算法正义联盟”,这个项目旨在增进人们对这个成绩的看法。

对三家公司人脸辨认软件停止的实验

布兰威尼将在本月一个会议上引见一篇最新宣布的论文。她为这篇论文研讨了微软、IBM和中国旷视科技这三家公司的人脸辨认零碎的功能,对它们辨认不同肤色用户的性别的效果停止了权衡。她之所以选择这些公司,是由于它们的人脸剖析软件提供了性别判别功用,并且它们的代码曾经地下发布,可以用来测试。

她发现,这三家公司软件的辨认效果有待进步。

布兰威尼为该测试树立了一个数据集,共有1270张人脸,运用的是女议员较多的国度的议员面部图像,包括三个以黑皮肤为主的非洲国度,以及三个以白皮肤为主的北欧国度。

然后她依据皮肤科医生运用的 “六点标志体系”对非洲和北欧的这些人脸材料停止评分,对皮肤停止分类。绝对于种族分类,医学分类愈加客观和精确。

她再对这些人脸图像停止性别和肤色上的取舍,然后运用三家公司的软件来辨认它们。微软辨认黑皮肤女性的错误率是21%,而IBM和Megvii的错误率则接近35%。三家公司在辨认白皮肤男性时的错误率都低于1%。

布兰威尼发布这项研讨的效果之后。 IBM宣布声明说,该公司曾经稳步改善了人脸剖析软件,郑重努力于“不带成见”和“通明度”。IBM表示将在本月推出的软件晋级版在辨认肤色较深的女性时,准确度会进步近10倍。

微软则表示它曾经“曾经采取措施来进步人脸辨认技术的精确性”,并且正在投入资源,研讨如何“辨认、了解和消弭成见”。

布兰威尼说,旷视科技的Face ++软件普遍使用于中国的在线领取和网约车效劳,但该公司没有回复置评恳求。

布兰威尼发布了她的数据集,供其别人运用。她称本人的研讨是“处理方案的终点,根本上是第一步”。

布兰威尼还采取了进一步的举动,她与IEEE(一家大型计算机专业组织)协作,成立了一个团队,为人脸剖析软件制定问责制和通明度规范。

她还活期与其他关注AI影响的学者、公共政策组织和慈悲机构会面。福特基金会主席达伦o沃克(Darren Walker)表示,这种新技术能够是一个“时机平台”,但假如它复制并缩小了过来的成见和歧视,就发扬不了作用。

沃克说:“数字世界正在停止一场公道、容纳和正义之战。”(编译/云开)