不看膚色就沒有歧視?「種族中立」為何會變成「色盲種族主義」

不看膚色就沒有歧視?「種族中立」為何會變成「色盲種族主義」
Image Credit: Shutterstock

我們想讓你知道的是

有些人認為要以「種族中立」或不看膚色的「色盲」態度處理種族問題,但有社會學家指出,這種態度其實無法解決社會制度各方面的歧視,反而延續過往的種族主義。

文︰陳婉容、朱孝文

奧巴馬(Barack Obama)在2008年當選美國總統後,許多人認為他的當選代表美國,甚至整個已發展世界,都進入了所謂「後種族年代」(post-racial era),即是種族主義已經消退,大家也不用再以種族的框架來思考社會各種不平等。

這種說法在美國很受歡迎,有些保守派認為有色人種坐上世界最有權力元首的高位,代表自由派一直講的種族問題都是假議題,再講下去甚至代表美國白人被「邊緣化」;有些自由派認為不再用膚色區分人種代表進步,覺得「色盲」(colorblindness)就是從美國種族主義歷史中進步的終極目標。有個在美國流行說法就是「我不看人的膚色,所有人對我來講都是人」(I don’t see color, I only see people)。

這樣的社會不是很理想嗎?但社會學家不認同。杜克大學社會學家Eduardo Bonilla-Silva是現今讀種族絕不能繞過的理論家,他提出「色盲種族主義」(colorblind racism)的說法,指出「種族中立」(race-neutral)的說法只是變了裝的種族歧視,提倡「色盲」和「種族中立」並不會改變白人至上主義的現實,即沒有動搖種族主義最根本的基礎。

「色盲種族主義」的五大元素

而甚麼是「色盲種族主義」?Bonilla-Silva提出了五大元素:

一. 種族主義言論或行為愈來愈「隱蔽」化:舉個例,很多體育比賽旁述在描述黑人運動員時都會用「力大無窮」﹑「身體強壯」﹑「像隻野獸」之類的字眼,聽起來很像在讚揚黑人運動員天生有體育細胞;描述白人運動員時,用的字眼卻是「聰明」﹑「懂得運用策略」﹑「非常勤力」。很少人會講大剌剌的種族歧視字眼——但還是有的。例如世上最厲害的網球手莎蓮娜·威廉斯(Serena Williams)2018年被澳洲報紙畫成「憤怒黑人女性」(angry black woman,針對黑人女性的一種定型)。

二. 白人會開始投訴自己遭遇「逆向歧視」:最好的例子就是,當有人談論黑人與白人即使有同等學歷,薪酬也比白人低時,有人說會跳出來說:「但黑人入大學比較容易,因為有優待政策,怎麼就沒有人講?」可是一個人的學業成績由很多因素影響:個人興趣與基因﹑家境﹑資源﹑可以用來學習的時間有多長﹑學習環境的優劣﹑父母的學歷等等。所謂「優待」只是扭轉歷史不公的第一步,更不要說很多評論的人根本不清楚「積極平權措施」(affirmative action)的做法:黑人的入學條件根本沒有比較低,因為如果用較低標準收弱勢學生是違法的。

三. 有種族議程(agenda)的政治議題會避免提及種族字眼:例如「打擊社會保障詐騙」似乎是「種族中立」的,但它也利用存在已久的「福利女王」(welfare queen,這個貶稱常指涉黑人單親媽媽)形象來針對和污名化使用社會保障的黑人。最近特朗普(Donald Trump)收緊食物劵(food stamp)的派發原則,令三百萬美國人領不到食物劵,措施對黑人社群打擊最大,但政策完全沒有用上種族字眼。

四. 複製種族不公的機制變得難以辨識:奴隸制不再存在,也沒有種族隔離,黑人也可以參與民主機制,社會好像已經消除了絕大部份再製種族不公的機制,令人有「世界已經變得很公平」的錯覺。

五. 很多種族隔離時代的種族主義行為會以其他方式再現:今天已經再沒有合法的種族隔離了,但今天的房仲業者仍然不願意帶黑人顧客看白人區的房子,警察仍會針對黑人搜查及暴力拘捕,有毒廢料場還是最常選址在有色人種社區。

不談種族,仍未解決歷史遺留下來的歧視

簡單來說,Bonilla-Silva指出:種族主義已經滲透整個社會結構,無論在法律﹑政治﹑文化﹑教育等等方面,對有色人種都存在結構性歧視,故不去針對這些結構修正而避談種族問題,只會令問題更難得解決。舉個例子,假設在美國南方有家餐廳,在種族隔離時期只有白人能當高收入又有小費的侍應,黑人只能在廚房做洗碗等收入較低的工作。六十年代民權法案通過、種族隔離被廢除後,餐廳老闆不能用膚色決定誰可以當收入高的工作了,決定一律不看膚色,只看經驗。這夠好了嗎?有甚麼問題?

如果只按經驗﹑學歷等等看似「種族中立」的條件請人,這家餐廳大多也只會請白人侍應。即使餐廳老闆的沒有歧視黑人意圖,但其行為的後果就是延續了長久以來的歧視(這也解釋了為何「意圖」不能成為種族主義的判斷標準)。這就是所謂的隱藏關聯性(implicit correlation)問題。

注意到「種族中立」的問題的當然不止社會學家。隱藏關聯性問題也影響到互聯網時代的演算法(algorithm)中立性,所以電腦科學家近年也注意到所謂「色盲」的問題。例如近年研究機器學習(machine-learning)的科學家Aylin Caliskan在2017年就留意到,人工神經網利用「爬文」等方法學習人類知識,會將人類歷史上積累而來的歧視和偏見一併吸收,所以這些演算法也帶有種族偏見。

「色盲主義」行不通,「補償機率」助修正

那怎麼辦?柏克萊電腦科學家Moritz Hardt在2016年就提出了「補償機率」(Equalized Odds)的概念來令演算法更公平,一年後Blake Woodworth又在這個框架上提出了具體的改善方法。