不看膚色就沒有歧視?「種族中立」為何會變成「色盲種族主義」

不看膚色就沒有歧視?「種族中立」為何會變成「色盲種族主義」
Image Credit: Shutterstock

我們想讓你知道的是

有些人認為要以「種族中立」或不看膚色的「色盲」態度處理種族問題,但有社會學家指出,這種態度其實無法解決社會制度各方面的歧視,反而延續過往的種族主義。

文︰陳婉容、朱孝文

奧巴馬(Barack Obama)在2008年當選美國總統後,許多人認為他的當選代表美國,甚至整個已發展世界,都進入了所謂「後種族年代」(post-racial era),即是種族主義已經消退,大家也不用再以種族的框架來思考社會各種不平等。

這種說法在美國很受歡迎,有些保守派認為有色人種坐上世界最有權力元首的高位,代表自由派一直講的種族問題都是假議題,再講下去甚至代表美國白人被「邊緣化」;有些自由派認為不再用膚色區分人種代表進步,覺得「色盲」(colorblindness)就是從美國種族主義歷史中進步的終極目標。有個在美國流行說法就是「我不看人的膚色,所有人對我來講都是人」(I don’t see color, I only see people)。

這樣的社會不是很理想嗎?但社會學家不認同。杜克大學社會學家Eduardo Bonilla-Silva是現今讀種族絕不能繞過的理論家,他提出「色盲種族主義」(colorblind racism)的說法,指出「種族中立」(race-neutral)的說法只是變了裝的種族歧視,提倡「色盲」和「種族中立」並不會改變白人至上主義的現實,即沒有動搖種族主義最根本的基礎。

「色盲種族主義」的五大元素

而甚麼是「色盲種族主義」?Bonilla-Silva提出了五大元素:

一. 種族主義言論或行為愈來愈「隱蔽」化:舉個例,很多體育比賽旁述在描述黑人運動員時都會用「力大無窮」﹑「身體強壯」﹑「像隻野獸」之類的字眼,聽起來很像在讚揚黑人運動員天生有體育細胞;描述白人運動員時,用的字眼卻是「聰明」﹑「懂得運用策略」﹑「非常勤力」。很少人會講大剌剌的種族歧視字眼——但還是有的。例如世上最厲害的網球手莎蓮娜·威廉斯(Serena Williams)2018年被澳洲報紙畫成「憤怒黑人女性」(angry black woman,針對黑人女性的一種定型)。

二. 白人會開始投訴自己遭遇「逆向歧視」:最好的例子就是,當有人談論黑人與白人即使有同等學歷,薪酬也比白人低時,有人說會跳出來說:「但黑人入大學比較容易,因為有優待政策,怎麼就沒有人講?」可是一個人的學業成績由很多因素影響:個人興趣與基因﹑家境﹑資源﹑可以用來學習的時間有多長﹑學習環境的優劣﹑父母的學歷等等。所謂「優待」只是扭轉歷史不公的第一步,更不要說很多評論的人根本不清楚「積極平權措施」(affirmative action)的做法:黑人的入學條件根本沒有比較低,因為如果用較低標準收弱勢學生是違法的。

三. 有種族議程(agenda)的政治議題會避免提及種族字眼:例如「打擊社會保障詐騙」似乎是「種族中立」的,但它也利用存在已久的「福利女王」(welfare queen,這個貶稱常指涉黑人單親媽媽)形象來針對和污名化使用社會保障的黑人。最近特朗普(Donald Trump)收緊食物劵(food stamp)的派發原則,令三百萬美國人領不到食物劵,措施對黑人社群打擊最大,但政策完全沒有用上種族字眼。

四. 複製種族不公的機制變得難以辨識:奴隸制不再存在,也沒有種族隔離,黑人也可以參與民主機制,社會好像已經消除了絕大部份再製種族不公的機制,令人有「世界已經變得很公平」的錯覺。

五. 很多種族隔離時代的種族主義行為會以其他方式再現:今天已經再沒有合法的種族隔離了,但今天的房仲業者仍然不願意帶黑人顧客看白人區的房子,警察仍會針對黑人搜查及暴力拘捕,有毒廢料場還是最常選址在有色人種社區。

不談種族,仍未解決歷史遺留下來的歧視

簡單來說,Bonilla-Silva指出:種族主義已經滲透整個社會結構,無論在法律﹑政治﹑文化﹑教育等等方面,對有色人種都存在結構性歧視,故不去針對這些結構修正而避談種族問題,只會令問題更難得解決。舉個例子,假設在美國南方有家餐廳,在種族隔離時期只有白人能當高收入又有小費的侍應,黑人只能在廚房做洗碗等收入較低的工作。六十年代民權法案通過、種族隔離被廢除後,餐廳老闆不能用膚色決定誰可以當收入高的工作了,決定一律不看膚色,只看經驗。這夠好了嗎?有甚麼問題?

如果只按經驗﹑學歷等等看似「種族中立」的條件請人,這家餐廳大多也只會請白人侍應。即使餐廳老闆的沒有歧視黑人意圖,但其行為的後果就是延續了長久以來的歧視(這也解釋了為何「意圖」不能成為種族主義的判斷標準)。這就是所謂的隱藏關聯性(implicit correlation)問題。

注意到「種族中立」的問題的當然不止社會學家。隱藏關聯性問題也影響到互聯網時代的演算法(algorithm)中立性,所以電腦科學家近年也注意到所謂「色盲」的問題。例如近年研究機器學習(machine-learning)的科學家Aylin Caliskan在2017年就留意到,人工神經網利用「爬文」等方法學習人類知識,會將人類歷史上積累而來的歧視和偏見一併吸收,所以這些演算法也帶有種族偏見。

「色盲主義」行不通,「補償機率」助修正

那怎麼辦?柏克萊電腦科學家Moritz Hardt在2016年就提出了「補償機率」(Equalized Odds)的概念來令演算法更公平,一年後Blake Woodworth又在這個框架上提出了具體的改善方法。

假設上面這家餐廳老闆現在決定用演算法請侍應。又假設我們有名應徵者叫「Alex」,設X代表Alex的工作經驗、R代表Alex的種族,Y代表Alex能否勝任工作,Ŷ代表演算法認為Alex應否獲得聘用。由於我們認為R(種族)不應影響招聘決定,所以我們要求演算法對於黑人勝任者的正確受聘率,相等於白人勝任者的正確受聘率:這就是所謂「補償機率」。

那為何單純的「色盲主義」行不通呢?單純的「色盲主義」即讓演算法不考慮種族(R),直接處理應徵者的工作經驗(X),然後作出聘用或拒絕的決定(Ŷ)。Woodworth 透過例子指出單純的色盲主義依然會種族歧視勝任者:由於黑人低工作經驗人口比例比白人高,因此對於特定的Y(例如應徵者能否勝任餐廳侍應),R(種族)和X(工作經驗)兩個因素並非互相獨立(independent)的(筆者簡化了其中一個例子放在附錄,不懼怕數學的讀者可以參考)。因此「色盲演算法」無法達至補償機率。

因此不講種族問題的色盲主義無法扭轉對過去的不公。要達致補償機率,就代表我們要針對R(種族)適當修正演算法:即對於不利的R作出有利的補償。對於一個能勝任工作的黑人,老闆必須要讓他比同樣勝任工作的白人擁有更高的受聘機會(更高的Ŷ),積極平權政策背後也有類似假設。這絕對不是逆向歧視,即使在科學上也是被廣泛應用以達致公平的原則。至於在數學上如何具體地使用種族(R)去對本來不公平的結果去修補及調整,使其變成乎合補償機率的結果,有興趣的讀者可以自行查閱Woodworth的論文(見參考文獻)。

附錄

我們希望指出「色盲演算法」仍帶有歧視。為了證明這點,我們會按照一些假設去構造一個社會人口分佈,並指出「色盲演算法」會帶有歧視。

假設:

  1. 黑人和白人佔人口比例都是50%;
  2. 勝任比率與種族無關:不論黑白,低經驗者的不逮/勝任比率皆為55:45,而高經驗者者的相關比率不論黑白皆為5:95;
  3. 黑人的低/高經驗比例為80:20;白人的低/高經驗比例為30:70。

因而社會人口分佈如下︰

R (種族)

X (經驗)

Y (勝任?)

佔人口比例

黑人

不逮

22.00%

黑人

勝任

18.00%

黑人

不逮

0.50%

黑人

勝任

9.50%

白人

不逮

8.25%

白人

勝任

6.75%

白人

不逮

1.75%

白人

勝任

33.25%

總計

100.00%

由於人口比例中勝任比率與種族無關,最簡單的「色盲演算法」即讓演算法不考慮種族(R),直接處理應徵者的經驗(X),然後作出聘用或拒絕的決定(Ŷ)。因此對於白人:

colorblindness_racism1

假如Alex是白人勝任者,正確受聘率還是挺高的,可是假如Alex是黑人勝任者呢?

colorblindness_racism2

正確受聘率連一半都沒有,更莫說跟白人勝任者的正確受聘率(83.1%)相比。「色盲演算法」表面上「看不到種族」,實在就是用隠藏關聯性(implicit correlation)歧視黑人勝任者。

參考文獻︰

  1. E. Bonilla-Silva. Racism Without Racists: Color-blind Racism And The Persistence Of Racial Inequality In The United States. Lanham, Md.: Rowman & Littlefield, 2003.
  2. S. T. Eastman and A. C. Billings, Biased Voices of Sports: Racial and Gender Stereotyping in College Basketball Announcing, Howard Journal of Communications, 12:4, 183-201, 2001. DOI: 10.1080/106461701753287714.
  3. A. Caliskan, J. J. Bryson, and A. Narayanan. Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334):183-186, 2017. ISSN 10959203. DOI: 10.1126/science.aal4230.
  4. M. Hardt, E. Price, and N. Srebro. Equality of opportunity in supervised learning. Advances in Neural Information Processing Systems, pages 3323-3331, 2016. ISSN 10495258.
  5. B. Woodworth, S. Gunasekar, M. I. Ohannessian and N. Srebro. Learning Non-Discriminatory Predictors. Proceedings of Machine Learning Research vol 65:1–34, 2017.

相關文章︰

責任編輯︰Kayue
核稿編輯︰


Tags: