特別報導

【TIME】【FORTUNE】全球中文獨家授權

Google監管仇恨言論的人工智慧,竟出現種族歧視的傾向

2019/08/28 , 評論
FORTUNE
Photo Credit: AP/達志影像
FORTUNE
財星雜誌是商業財經媒體中的全球領導者,旗艦內容包含全球前五百大企業報導、百大最佳企業雇主。
我們想讓你知道的是

研究成員閱讀了過去所發表的報導,發現仇恨言論辨識器,經常無可避免地將非裔美國英語標記為不恰當的言論。他們因此擔憂這項科技很可能會讓非裔美國人的聲音,從社群媒體或線上討論中消失。

文:Jonathan Vanian
譯:李宓

最新研究顯示,Google研發出來、在《紐約時報》等網頁上監管仇恨言論的人工智慧,出現了種族歧視的傾向。

8月初,來自華盛頓大學(University of Washington)、卡內基梅隆大學(Carnegie Mellon)和艾倫人工智慧研究所(Allen Institute for Artificial Intelligence)的研究員,在義大利佛羅倫斯所舉辦的國際計算語言學(Association for Computational Linguistics)大會上發表了一篇研究。他們指出,Google及其母公司底下一家子公司所研發的這項人工智慧,經常將非裔美國方言視為惡毒言論。

研究結果凸顯了電腦學習易受偏見影響的特點,以及這項特點對資料庫中缺乏代表性團體所造成的無心後果。鑽研此問題的人工智慧研究員擔心,這種科技透過大量資訊,歸納出某些特定模式,因此很可能會彰顯不平等的情形。

Google過去就曾面臨電腦學習歧視的問題,像是在2015年,旗下某項用來搜尋照片的功能,就曾將非裔美國人標註為大猩猩。到了2018年,另一項將人們自拍照與熱門藝術作品湊對的功能,則不小心將非裔美國人士連結到描繪奴隸的作品。記者瓦西妮・瓦拉(Vauhini Vara)在《Fortune》報導中寫道:「這或許是因為我們過度倚賴西方藝術。」

研究也強調了電腦學習在過濾、檢查網路言論方面的限制。儘管電腦學習能自動運行,減少審核員的工作量,但卻經常無法根據前後文正確理解,分不出來帶有嘲諷意味的玩笑到底是有趣還是會造成困擾。

從旁協助、一同研發出這項名為「Perspective」的公司Jigsaw,在2017年首度公開這項服務。宣稱「Perspective」將幫助《經濟學人》、《衛報》等出版者自動過濾帶有攻擊性的言論,讓交流更平和。其概念跟臉書和Twitter所提出的措施類似,都是藉由電腦自主學習軟體,來過濾那些經常無人處理的大量暴力和仇恨言論。

但這類內容審核軟體在試圖理解人類語言的幽微之處時,也經常出錯。自然語言處理技術(Natural language processing technology)又稱為NLP,是電腦在理解語言時,經常使用的一套人工智慧系統,但NLP也常常無法正確理解當下的語境。

專攻NLP的華盛頓大學研究生兼論文合著者馬丁・薩柏(Maarten Sap)表示,他的團隊想要深入研究社會的不平等,以及語言如何展露這類不正義。研究成員閱讀了過去所發表的報導,發現仇恨言論辨識器,經常無可避免地將非裔美國英語標記為不恰當的言論。他們因此擔憂這項科技很可能會讓非裔美國人的聲音,從社群媒體或線上討論中消失。

在他們的研究中,學者們首先蒐集了兩套數據系統的資料,一共包含超過10萬則Twitter留言。這些留言,過去就經常被研究員拿來當作仇恨言論辨別計畫的素材。數據標籤公司Figure Eight(現屬數據公司Appen)的分析人員檢核了這些貼文,並將之分成帶攻擊性、具仇恨意味,或立意良好。

研究員檢視了這些數據資料,並且發現,分析人員經常將含有非裔美國方言的貼文,列為具有攻擊性或帶有仇恨意味。儘管這些說法在該語境中,其實相當常見。分析人員標記出來的語彙在其他社群中,可能被視為一種冒犯,像是「黑鬼」「屁」或「賤貨」。

接著,研究員便用這些Twitter數據來訓練某種類神經網路(一種會學習的軟體),教它如何辨別帶有攻擊性或仇恨意味的語彙。訓練完成以後,研究員會用這套類神經網路來分析另外兩個數據資料庫(其中Twitter用戶身分要不是已知,就是可輕易推得),結果和分析人員雷同,這套類神經網路也經常將非裔美國用語視為帶有攻擊性。

薩柏說,當研究員以同樣的方法測試Perspective的時候,他們發現,這項工具同樣也認為許多非裔美國英語立意不良。

他點出這樣帶有偏見的分析法,可能會對線上言論造成一定影響。他說:「這是很大的問題。」

Jigsaw營運長丹・奇斯林(Dan Keyserling)表示,Jigsaw代表團已和論文發表者接觸,希望能改善這項科技。

奇斯林說:「我們很歡迎這類研究,也經常參與此類大會,表示我們對研究團體的支持。」

此外,研究員還進行了一項規模較小的相關研究,企圖理解分析人員分類的方式。他們透過「亞馬遜機器土耳其人」(Amazon Mechanical Turk)招募兼職分析員,把非裔美國人的貼文傳給他們,請他們判別這些內容是否帶有攻擊性。

在本次研究中,由於分析人員已經知道這些貼文的作者是非裔美國人,他們將特定詞彙標記為攻擊言論的比率大幅降低。薩柏推測,這些外包員工可能認為,當非裔美國人使用「黑鬼」這樣的詞彙時,較不帶有攻擊意味。反之,「若白人使用了這些詞彙,攻擊性就比較強。」他說,分析員按原本方式工作時,「並不了解貼文的語境」。

奇斯林承認,Perspective就跟其他電腦學習系統一樣,易受偏見影響。事實上,許多記者和研究員過去就曾點名Perspective,指其對特定族群帶有偏見。

但奇斯林也反駁,稱Jigsaw在減低偏見方面已大有進步。他指的是公司陸續發表的部落格文章研究論文。他們在這些文章中,詳細列出了公司在此方面所遇到的困難。

奇斯林並沒有公布Jigsaw招來訓練Perspective的分析人員的背景,也沒有說明Jigsaw是否會利用研究中所提供的任何技術來避免偏見,其中包含為分析人員提供更完整的用戶族裔資訊。

儘管如此,奇斯林表示:「語境非常重要。在搭建數據系統時,我們絕對會注意這一塊。」

奇斯林在後續郵件中提到了Jigsaw在訓練過程中,用來降低偏見的一項技術,也就是所謂的「範本卡」(model card)。範本卡上細數了電腦學習模型的使用方式,以及必須納入考量的道德問題。Jigsaw在一篇部落格貼文中提到,這項技術幫助Perspective降低了對男女同志或黑人所造成的無心的偏見。

奇斯林說:「我們始終在設法改善我們的模型,不斷、不斷希望減少無心的偏見。」

這很可能不會是Perspective最後一次在偏見問題上碰壁,隨著Jigsaw將服務拓展至其他語言(像法國《世界報》〔Le Monde〕近期就開始使用該服務的法文版本),類似問題很可能也會在其他語言中發生。

然而,奇斯林辯駁道,Perspective仍「有其影響」,並且「對網路平台來說有極大的幫助」,讓網路空間免於被仇恨言論充斥。反覆進行技術更新以減少偏見,是他們永不終結的任務。

他說:「科技不會有完美的一天。這是電腦學習相關研究的本質。」

© 2019 Time Inc. 版權所有。經Time Inc.授權翻譯並出版,嚴禁未經書面授權的任何形式與語言版本轉載。

責任編輯:朱家儀
核稿編輯:翁世航

專題下則文章:

川普如何從土耳其軍購爭議,削弱自家國務卿的國際威信?

【TIME】【FORTUNE】全球中文獨家授權:

《關鍵評論網》獨家獲得時代雜誌與財星雜誌全球中文數位版授權,將每日提供兩大媒體品牌文章的中文譯文,題材涵蓋國際政治、財經、科技、文化、歷史、生活、娛樂等各領域。

看完整特別報導