開票日倒數 倒數
0
23
11
50

前往選舉專區

不看膚色就沒有歧視?「種族中立」為何會變成「色盲種族主義」

不看膚色就沒有歧視?「種族中立」為何會變成「色盲種族主義」
Image Credit: Shutterstock

我們想讓你知道的是

有些人認為要以「種族中立」或不看膚色的「色盲」態度處理種族問題,但有社會學家指出,這種態度其實無法解決社會制度各方面的歧視,反而延續過往的種族主義。

假設上面這家餐廳老闆現在決定用演算法請侍應。又假設我們有名應徵者叫「Alex」,設X代表Alex的工作經驗、R代表Alex的種族,Y代表Alex能否勝任工作,Ŷ代表演算法認為Alex應否獲得聘用。由於我們認為R(種族)不應影響招聘決定,所以我們要求演算法對於黑人勝任者的正確受聘率,相等於白人勝任者的正確受聘率:這就是所謂「補償機率」。

那為何單純的「色盲主義」行不通呢?單純的「色盲主義」即讓演算法不考慮種族(R),直接處理應徵者的工作經驗(X),然後作出聘用或拒絕的決定(Ŷ)。Woodworth 透過例子指出單純的色盲主義依然會種族歧視勝任者:由於黑人低工作經驗人口比例比白人高,因此對於特定的Y(例如應徵者能否勝任餐廳侍應),R(種族)和X(工作經驗)兩個因素並非互相獨立(independent)的(筆者簡化了其中一個例子放在附錄,不懼怕數學的讀者可以參考)。因此「色盲演算法」無法達至補償機率。

因此不講種族問題的色盲主義無法扭轉對過去的不公。要達致補償機率,就代表我們要針對R(種族)適當修正演算法:即對於不利的R作出有利的補償。對於一個能勝任工作的黑人,老闆必須要讓他比同樣勝任工作的白人擁有更高的受聘機會(更高的Ŷ),積極平權政策背後也有類似假設。這絕對不是逆向歧視,即使在科學上也是被廣泛應用以達致公平的原則。至於在數學上如何具體地使用種族(R)去對本來不公平的結果去修補及調整,使其變成乎合補償機率的結果,有興趣的讀者可以自行查閱Woodworth的論文(見參考文獻)。

附錄

我們希望指出「色盲演算法」仍帶有歧視。為了證明這點,我們會按照一些假設去構造一個社會人口分佈,並指出「色盲演算法」會帶有歧視。

假設:

  1. 黑人和白人佔人口比例都是50%;
  2. 勝任比率與種族無關:不論黑白,低經驗者的不逮/勝任比率皆為55:45,而高經驗者者的相關比率不論黑白皆為5:95;
  3. 黑人的低/高經驗比例為80:20;白人的低/高經驗比例為30:70。

因而社會人口分佈如下︰

R (種族)

X (經驗)

Y (勝任?)

佔人口比例

黑人

不逮

22.00%

黑人

勝任

18.00%

黑人

不逮

0.50%

黑人

勝任

9.50%

白人

不逮

8.25%

白人

勝任

6.75%

白人

不逮

1.75%

白人

勝任

33.25%

總計

100.00%

由於人口比例中勝任比率與種族無關,最簡單的「色盲演算法」即讓演算法不考慮種族(R),直接處理應徵者的經驗(X),然後作出聘用或拒絕的決定(Ŷ)。因此對於白人:

colorblindness_racism1

假如Alex是白人勝任者,正確受聘率還是挺高的,可是假如Alex是黑人勝任者呢?

colorblindness_racism2

正確受聘率連一半都沒有,更莫說跟白人勝任者的正確受聘率(83.1%)相比。「色盲演算法」表面上「看不到種族」,實在就是用隠藏關聯性(implicit correlation)歧視黑人勝任者。

參考文獻︰

  1. E. Bonilla-Silva. Racism Without Racists: Color-blind Racism And The Persistence Of Racial Inequality In The United States. Lanham, Md.: Rowman & Littlefield, 2003.
  2. S. T. Eastman and A. C. Billings, Biased Voices of Sports: Racial and Gender Stereotyping in College Basketball Announcing, Howard Journal of Communications, 12:4, 183-201, 2001. DOI: 10.1080/106461701753287714.
  3. A. Caliskan, J. J. Bryson, and A. Narayanan. Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334):183-186, 2017. ISSN 10959203. DOI: 10.1126/science.aal4230.
  4. M. Hardt, E. Price, and N. Srebro. Equality of opportunity in supervised learning. Advances in Neural Information Processing Systems, pages 3323-3331, 2016. ISSN 10495258.
  5. B. Woodworth, S. Gunasekar, M. I. Ohannessian and N. Srebro. Learning Non-Discriminatory Predictors. Proceedings of Machine Learning Research vol 65:1–34, 2017.

相關文章︰

責任編輯︰Kayue
核稿編輯︰