农企新闻网

BAIR探究机器学习公道原则的临时影响:对弱势群体的好心真的种出了善果?

发布者:高夕
导读大众号/机器之心选自BAIR作者:Lydia T. Liu、Sarah Dean、Esther Rolf、Max Simchowitz、Moritz Hardt机器之心编译参与:刘天赐、晓坤由于机器学习零碎容易遭到历史数据引入的成见而招致歧视性行为,人们以为有必要在某些使用场景中用公道性原则约束零碎的行为,并等待其能维护弱势群体和带来临时收益。近日,伯克利 AI 研讨院宣布博客,讨论了静态公道性原
大众号/机器之心

选自BAIR

作者:Lydia T. Liu、Sarah Dean、Esther Rolf、Max Simchowitz、Moritz Hardt

机器之心编译

参与:刘天赐、晓坤

由于机器学习零碎容易遭到历史数据引入的成见而招致歧视性行为,人们以为有必要在某些使用场景中用公道性原则约束零碎的行为,并等待其能维护弱势群体和带来临时收益。近日,伯克利 AI 研讨院宣布博客,讨论了静态公道性原则的临时影响,发现后果和人们的希冀相差甚远。相关论文已被 ICML 2018 大会接纳。

以「最小化预测误差」为目的训练的机器学习零碎通常会基于种族、性别等敏感特性(sensitive characteristics),表现出歧视性行为(discriminatory behavior),数据中的历史性偏向能够是其中的一个缘由。持久以来,在诸多如存款、雇用、刑事司法以及广告等使用场景中,机器学习不断被诟病「由于历史缘由,潜在地损伤到曾被无视的、弱势群体」。

本文讨论了研讨者们在调整以临时社会福利(long term social welfare)为目的的机器学习所得决策方面的近期效果。通常,机器学习模型发生一个得分(score)来概述关于集体的信息,进而对其作出决策。例如,信誉得分(credit score)总结了某人的信誉历史和财务行为,来协助银行评定其信誉等级。我们以此存款场景为例贯串全文。任何用户群体在信誉得分上都有其特定散布,如下图所示。

1. 信誉得分和归还散布

BAIR探索机器学习公平准则的长期影响:对弱势群体的善意真的种出了善果?

经过定义一个阈值,可以将得分转变为决策。例如,得分高于放贷阈值的人可以取得存款,而低于放贷阈值的则被回绝。这种决策规则叫阈值战略(threshold policy)。可以将得分了解为存款违约的估量概率编码。例如,信誉得分为 650 的人中,90% 的人会归还其存款。因而,银行可以预估其为信誉得分为 650 的用户提供等额存款的希冀收益,异样,可以预测为信誉得分高于 650(或任何给定阈值)的全体用户提供存款的希冀收益。

2. 存款阈值和后果

BAIR探索机器学习公平准则的长期影响:对弱势群体的善意真的种出了善果?

不思索其他要素的状况下,银行会试图最大化其总收益。收益取决于发出的归还存款额与在存款违约的损失额之间的比。在上图中,收益损失比为 1:-4,由于相较于收益,损失的本钱更高,因而银行会更保守的停止放贷,并进步放贷阈值。我们将高于此阈值以上的总体人数占比称为选择率(selection rate)。

后果曲线

存款决策不只影响银行机构,也会影响团体。一次违约行为(存款人无法归还存款)中,不只是银行损失了收益,存款人的信誉得分也会降低。而成功的存款履约行为中,银行取得收益,同时存款人的信誉得分提升。在本例中,某用户信誉得分变化比为 1(履约):-2(违约)

在阈值战略中,后果(outcome)被定义为某群体得分的变化希冀,可以参数化为选择率的函数,称此函数为后果曲线(outcome curve)。当某群体的选择率发作变化时,其后果也会发作变化。这些总体人数级别上的后果会同时取决于归还概率(由得分编码失掉)、本钱以及集体存款决策的收益。

BAIR探索机器学习公平准则的长期影响:对弱势群体的善意真的种出了善果?

上图展现了某典型群体的后果曲线。当群体内取得存款并成功归还的集体足够多时,其均匀信誉得分就能够添加。这时,假如其均匀得分变化(average score change)为正,则可失掉无约束收益最大化后果。偏离收益最大化,以给更多人提供存款时,均匀得分变化会增大到最大值。称其为利他最优(altruistic optimum)。也可以将选择率提升到某个值,使均匀得分变化低于无约束收益最大化时的均匀得分变化、但仍然为正,即图中黄色点状暗影所表示的区域。称此区域中的选择率招致了绝对损害(relative harm)。但假如无法归还存款的用户过多,则均匀得分就会降低(均匀得分变化为负),从而进入白色横线暗影区域。

4. 存款阈值和后果曲线

BAIR探索机器学习公平准则的长期影响:对弱势群体的善意真的种出了善果?

多群体状况

给定的阈值战略如何影响不同群体中的集体?两个拥有不同信誉得分散布(credit score distribution)的群领会拥有不同的后果。

假定第二个群体和第一个群体的信誉得分散布不同,同时群体内人数也更少,将其了解为历史弱势群体。将其表示为蓝群体,我们希望保证银行的存款政策不会不合理地损伤、诈骗到他们。

假定银行可以对每个群体选择不同的阈值,虽然这能够面临法律应战,但为了预防由于固定阈值决策能够带来的差异后果,基于群体的阈值是无法防止的。

5. 不同群体的存款决策

BAIR探索机器学习公平准则的长期影响:对弱势群体的善意真的种出了善果?

很自然的会呈现成绩:怎样的阈值选择可以在蓝群体的得分散布中失掉希冀改善。如上文所述,无约束的银行战略会最大化收益,并选取收支均衡、存款有利可图的点。现实上,收益最大化阈值(信誉得分为 580)在两个群体中是相反的。

公道性原则

拥有不同得分散布的群领会有不同外形的得分曲线(原文图 6 上半局部展现了真实信誉得分数据和一个复杂后果模型的后果曲线)。作为无约束收益最大化的另一个替代选择是公道性约束(fairness constraints):经过某些目的函数令不同群体的决策对等。目前曾经提出了各种公道性原则,诉诸直觉来维护弱势群体。经过后果模型,我们可以正式的答复:公道性约束能否真的鼓舞了更多的积极后果。

一个罕见的公道性原则,人口统计对等(demographic parity),要求银行在两个群体中给出相反比例的存款。在此要求下,银行持续尽能够最大化收益。另一个原则,时机对等(equality of opportunity):两个群体中的真阳性率(true positive rate)相等,要求银行对两个群体中会归还存款的集体相反的存款比例。

虽然从要求静态决策公道的角度动身,这些原则都很合理,但它们大多疏忽了这些对群体后果的将来效应。原文图 6 经过比照最大化收益、人口统计对等和时机对等下的战略后果,展现了这一点。看看每个存款战略下银行收益和信誉得分的变化。和最大化收益战略相比,人口统计对等和时机对等都降低了银行收益,但能否取得了相较于最大化收益失掉提升的蓝群体后果?虽然相较于利他最优,最大化收益战略对蓝群体存款过低,但时机对等战略则(相较于利他最优)存款过多,人口统计对等则存款过多,并到达了绝对损害区域。

6. 有约束条件下的存款决策模仿

BAIR探索机器学习公平准则的长期影响:对弱势群体的善意真的种出了善果?

假如公道性原则的目的是「从临时来看,提升或公道化一切群体的幸福」,方才展现的则标明在某些场景下,公道性原则实践上是违犯了这一目的。换言之,公道性约束会进一步降低弱势群体中的现有福利。树立精确模型,以预测战略将对群体后果发生的效应影响,也答应以缓解由于引入公道性约束而发生的预料以外的损伤。

对「公道」机器学习后果的考虑

研讨者提出了一个基于临时后果的对机器学习「公道性」讨论的视角。假如没有细致的延迟后果模型,就不能来预测公道性原则作为加在分类零碎上之后的影响。但是,假如有精确的后果模型,就能以相较于现有公道性原则而言,更直接的方式来优化正例后果。详细而言,后果曲线给出了偏离最大化收益战略,以最直接提升后果的办法。

后果模型是在分类进程中引入范畴知识的一个详细办法,并能与许多指出机器学习中的「公道」具有背景敏感特性的研讨很好地吻合。后果曲线为此使用特定的权衡进程提供了一个可解释的视觉工具。

更多细节请阅读论文原文,本文将在往年 35 届 ICML 大会上呈现。本研讨只是对「后果模型可以缓解机器学习算法对社会预料外影响」的初步探究。研讨者们置信,将来,随着机器学习算法会影响到更多人的生活,会有更多的研讨任务,来保证这些算法的临时公道性。

  • 论文:Delayed Impact of Fair Machine Learning
  • 论文地址:https://arxiv.org/pdf/1803.04383.pdf

原文链接:http://bair.berkeley.edu/blog/2018/05/17/delayed-impact/