朱家安:AI歧視女性、害人類失業?「對照思考」協助你持平分析,面對焦慮

朱家安:AI歧視女性、害人類失業?「對照思考」協助你持平分析,面對焦慮
Photo Credit: Pixabay

我們想讓你知道的是

身為人類,我們該如何思考這類事情?在這篇文章裡,我想推薦大家一種「對照思考」的角度,我相信這種技巧就算無法直接為你找到答案,也能協助你把事情看得更完整。

文:朱家安

AI產業默默耕耘,已經形塑了現代生活,AI不但決定你在許多網頁上看到什麼東西、接收哪些推薦訊息,更協助美國的法官判斷誰能獲得假釋。照人類懶惰的程度,將來移交AI處理的事項恐怕只會多不會少,一些人想像AI有一天開車上路、開醫療診斷書給病人,一些人則擔憂這樣的未來對人類不會更好。畢竟,就算你覺得「AI統治世界奴役人類」的未來太科幻,也很難直接排除像是「AI取代人工造成人類大量失業」、「AI錯誤決策造成災難人類求助無門」的可能性。

身為人類,我們該如何思考這類事情?在這篇文章裡,我想推薦大家一種「對照思考」的角度,我相信這種技巧就算無法直接為你找到答案,也能協助你把事情看得更完整。

AI沒有偏見,人才有

讓我們從一個有趣的案例開始。亞馬遜從2014年開始嘗試用AI篩選求職者,結果發現篩選結果顯然歧視女性:當資料提到求職者是女性,或者讀過女子學校,AI就給出比較低的評分。

這顯然有違性別平等,不過問題出在誰身上?相關討論鋒頭並沒指向AI,而是指向亞馬遜訓練AI時提供的資訊。現在AI議題涉及的AI多半是「類神經網路」,AI的決策規則並不是由人類工程師寫定,而是藉由機器學習,從過去的資料歸納出好的決策方式。

這讓「垃圾進、垃圾出」這句話在AI產業尤其寫實:資料內含的偏差,很有可能直接呈現在AI上。過去曾經有人訓練AI從圖片辨認有毒的蘑菇,訓練出來的AI一點也不準確,後來才發現,當初訓練時提供資料的順序是「有毒」和「無毒」交錯,所以AI學到的是從資料順序來辨認,而不是從圖片內容。亞馬遜的AI人資實驗跑出歧視女性的結果,《Bussiness Insider》認為這不值得意外,在當時,亞馬遜的員工組成當中有六成男性,管理階層當中則是74%

值得注意的是,在性別歧視的議題上,上述AI事件造成的並不是危機而是轉機:「AI歧視女性」的戲劇化結果,反而成為亞馬遜檢討內部人資政策的契機。讓我們整理一下這個架構:

  1. 觀察到的現象:亞馬遜AI人資實驗,顯示AI歧視女性。
  2. 現象發生的原因:這反過來顯示了,亞馬遜的員工組成性別不均。
  3. 反思人類:當然,AI實驗有可能只是放大了亞馬遜人資政策在性別方面的缺點,但若當初那些求職資料並不是由亞馬遜訓練的AI來篩選,而是由亞馬遜的人資部門篩選,就不會有性別歧視的結果嗎?

AI的決策方式取決於機器學習時獲得的資料,好好的聊天機器人,若跟偏激網友學習,都能變成種族主義者。若資料是從實際的人類決策而來,當AI表現不良,我們自然有理由回頭看看人類表現得如何。

「對照思考」讓我們持平分析議題

亞馬遜的案例告訴我們,在一些情況下,AI的缺點並不是無中生有,而是反映了人類社會的真實。注意到這個對照,隨時提醒自己可以問這兩個問題,讓我們有機會塑造更好的人類社會:

  1. AI的不理想是否反映人類社會的不理想?
  2. 如果AI做某個工作做得很差,由人類來做,會做得更好嗎?

例如說,當我們發現AI自駕車並非百分百安全,可以思考這是來自於AI,還是來自於路上的其他駕駛,也可以思考說,就算AI有一定肇事率,人類的肇事率是否更高。

上述對照思考背後的精神是:回顧眼前問題重要的原因,並且找到可以比較的對照點,來協助自己判斷問題的嚴重性,以及解決方案的方向。

事實上,類似意味的「對照」思考,不只可以用於比較人類與AI,也可以用於比較不同時間點的人類處境。

「對照思考」協助你面對焦慮

例如,許多人擔憂AI會取代人類,讓人類普遍失業。「人類會不會大幅失業?」是未來學的嚴肅問題,需要專業知識才能妥當探索,然而「我擔憂人類會因為AI而大幅失業」則是一種心理狀態,這種心理狀態是否出現,不見得符應事實。你的擔憂當然有可能神準,但是也可能白擔心(false positive),或者不但白擔心,而且忽略了更該擔心的事情(false negative)。

我們該怎麼評估上述焦慮?假設你有相關背景,或許可從科技趨勢、市場發展找到線索,而這也是評估眼前問題必要的途徑。但假設你缺乏背景、心力有限,有沒有其他方法可以協助你面對焦慮?

一個方法或許是:對照歷史上其他類似的焦慮。

面對變革,人類幾乎總是焦慮。古希臘人擔心人把思想寫在紙上之後記憶會衰退不利思考,近代歐洲人擔心拍照會把靈魂拍掉、搭火車時靈魂「跟不上火車的速度」會出竅,近十年,全世界的人紛紛擔心同性戀可以結婚之後人類社會會崩解。

你可能覺得這些焦慮以現代標準有點扯,甚至預設了你不同意的世界觀。不過就算是這樣,你還是可以比較其他更接近的焦慮,像是工業革命興起後人們對於「機器會取代人工」的擔憂,實際上工業革命至今兩百年來,世界對人工的需求並沒有降低的趨勢。

當然,這並不是說「因為蒸氣機沒讓人類失業,所以AI也不會」,這種推論太粗糙了。然而,若人類有「面對變革就焦慮」的傾向,那麼,當你意識到自己的焦慮來自變革,自然有理由把過去人類曾有過的類似焦慮列入考量。

反過來說,我們也可以對照那些真正造成問題的變革,當初是否引發相應焦慮。例如,2013年起國道收費員因為政府啟用ETC自動收費而失去工作,這個事件發生之前,有多少臺灣人民因焦慮而預見?藉由對照那些比較準確的焦慮和比較不準確的焦慮,我們有機會理解焦慮、分析焦慮來得到對於未來有用的資訊,而不是純粹為焦慮而焦慮。

※感謝陳澤世、宮保睿、黃宜品在「 AI與人性的思辨」講座提供的意見。感謝Yu-Wei Wu和藍偉任在臉書討論串提供的意見。感謝Huang Kevin給本文初稿的諮詢意見。

本文經Readmoo閱讀最前線授權刊登,原文發表於此

責任編輯:翁世航
核稿編輯:潘柏翰