Facebook「仇恨言論」規則外洩︰可以針對女司機、黑人小孩,但不能是白人男性?

Facebook「仇恨言論」規則外洩︰可以針對女司機、黑人小孩,但不能是白人男性?
Photo Credit: ProPublica
我們想讓你知道的是

Facebook內部審查貼文的規則外洩,到底對Facebook而言怎樣才算是「仇恨言論」?為甚麼特朗普要求禁止穆斯林入境不會被刪文?

唸給你聽
powered by Cyberon

Facebook的每月活躍用戶人數已經超過20億人,比地球上任何一個大國人口還要多。在這個網絡大國中,言論自由受Facebook的貼文審查員決定,一方面Facebook被批評對抗極端言論不力,另一方面,Facebook刪除貼文的標準經常受到質疑。

誰受保護?

昨日非牟利媒體《ProPublica》刊出調查報道,揭露Facebook內部的審查規則以及該公司訓練其內容審查員的方法,跟《衛報》及《南德意志報》早前報道的內容吻合。審查規則內其中一項重要原則,是界定怎樣的言論才算應刪除的「仇恨言論」,其公式非常簡單︰

受保護類別+攻擊=仇恨言論

hate_speech_formula
Image Credit: Süddeutsche Zeitung

Facebook教導審查員,他們會保護按以下8項條件構成的組別︰

  • 生理性別(sex)
  • 宗教信仰(religious affiliation)
  • 國籍(national origin)
  • 性別認同(gender identity)
  • 種族(race)
  • 族群(ethnicity)
  • 性傾向(sexual orientation)
  • 殘疾(serious disability or disease)

其他則不屬於受保護的範疇,如社會階級、職業、政治取向、外表及年齡等。不過構成「受保護類別」的條件,還有另一組規則︰如果言論針對某個受保護類別中「不受保護」的子集,那些人將同樣「不受保護」,言論毋須刪除。

Facebook給的例子是︰「愛爾蘭女性」乃受保護類別,因為「愛爾蘭人」(族群身分)以及「女性」(性別)均是受保護類別;然而「愛爾蘭青少年」並不是,因為「愛爾蘭人」乃受保護類別,但「青少年」不是,所以合起來就不受保護。

若以下圖說明,正方形代表「受保護類別」,圓形代表「不受保護類別」,Facebook的規則就是說,只有結合起來變成長方形/正方形的類別,才受到保護︰

facebook_rules
Image Credit: The News Lens

為確保受訓者理解這條規則,《ProPublica》取得的資料還包括一條問題︰

我們會保護以下哪個組別的人?

  1. 女司機
  2. 黑人小孩
  3. 白人男性

答案︰3. 白人男性

因為「司機」和「小孩」均不受保護,但「白人」及「男性」均受保護,所以「女司機」、「黑人小孩」不屬受保護類別,而「白人男性」則受保護。

根據Facebook規定,單單提到「白人男性」、「穆斯林」等「受保護類別」並不構成「仇恨言論」,另一重要組成部分為言論包含「攻擊」,主要分成7類︰

  • 呼籲使用暴力(任何會造成身體傷害的暴力行為),例子︰「我希望再次燒死猶太人」
  • 呼籲排斥,例子︰「女人不應有權上學」、「禁止所有英國人在西班牙居住!」
  • 呼籲隔離,例子︰「穆斯林應住在另一居區,遠雜我們的家庭」
  • 貶意的泛稱,例子︰「我不想再去法國,法國人很臭」
  • 貶斥,例子「我們不應相信猶太人,他們的歷史充斥通敵叛國」
  • 粗言咒罵,例子︰「男人都是仆街」、「誰在意那些他媽的穆斯林?」
  • 結合用作攻擊受保護類別的俚語,每個地區均有其清單

除了上述8個受保護類別外,還有一個特例︰移民。移民屬於「半受保護類別」,Facebook容許]部分對移民的攻擊言論,包括呼籲排斥或隔離、貶斥、針對他們作貶損的概括(但不屬於非人化)以及咒罵。因此指責移民(包括難民)都是「好色」、「懶惰」、「骯髒」和「賊」,均不會觸犯Facebook規定(但如果指責他們是「性罪犯」、「殺人犯」或「恐怖分子」則會被移除)。

並非追求平等

Facebook的演算法設計,是對所有種族、性別等身分一視同仁。專攻資訊私隱的馬里蘭大學法律教授Danielle Citron認為,這類「色盲」(指不考慮膚色)的想法,跟我們擁有平等保護的理念不同,更認為只會「保護最不需要保護的人,同時令最有需要的人失去保護」。

不過Facebook認為其目標並非追求平等,而是要在全球各地有一致標準。該公司的全球政策管理總監Monika Bickert表示,他們的政策不一定會有完美結果,這是針對全球群體——包含來自世界各地、對於甚麼內容可以分享的想法非常不同的人——訂立政策時,必須面對的現實。

在2005年加入Facebook,並成為該公司首位總法律顧問的Chris Kelly受訪時指,他當時希望確保Facebook不會受到執法機構批評。「我們當時非常強烈說明,我們是不容許裸體的平台。」

該公司亦開始要對付仇恨言論,Kelly表示︰「當我仍在Facebook時,我們要劃下一些困難的界線——否認大屠殺是最顯著的。」經過內部一番辯論後,該公司決定容許否認大屠殺的言論,但再次確立其針對群體的偏見,包括反猶主義。Kelly指由於大屠殺否認者往往都反猶,這些人的帳戶往往都會被封鎖。

在全球營運必須面對的問題

2008年開始,Facebook擴展至其他國家,當時其審查規則仍然只有一頁,列出需要刪除的內容如裸照、希特拉等。同年加入Facebook內容團隊的Dave Willner憶述,該頁最底有一句︰「移除任何其他令你感到不快的東西。」

每天要檢視1萬5千張圖片的Willner很快就發現,這一頁的規則不夠嚴謹,因此跟同事嘗試歸納出規則背後的想法,同時改良規則,不久後他成為內容政策團隊的總監。直到2013年他離開Facebook時,Willner負責的1萬5千字規則至今仍是Facebook標準的基礎。

Willner承認這些規則不可能讓人開心,所有規則都會令人稍為不快,然而由於Facebook每天須下大量——數以百萬計——的決定,這個方式「比起我們的司法制度更傾向效益主義,從根本上並非權利導向」。

另一互聯網巨頭Google採用「地區封鎖」技術,在不同地區因應當地法例及政府要求,封鎖特定內容,使該處的民眾無法看見。曾任Google法律顧問的Nicole Wong並不喜歡走上這條路,但這個決定容許類似Google的公司在不同地區營運。

然而對於Facebook這種社交網絡而言,按用戶所屬地區封鎖內容並不容易,因為用戶貼文會分享給跨越國家的朋友看,地區封鎖技術會影響對話及交流。

《ProPublica》引述熟悉Facebook的人表示,正是上述原因令Facebook長期以來盡量避免採用針對特定地區的規則封鎖貼文。Bickert表示,Facebook決定移除貼文時,會考慮當地法律,但不一定會按照政府要求刪文,有時候會只讓貼文在該國無法瀏覽。「我們希望確保人們能不受國界限制去溝通。」

政治問題

涉及政治層面時,Facebook的規則面對更多問題。上述的「半受保護類別」是在歐洲的敘利亞移民潮時才加入,Facebook決定只禁止部份攻擊言論,不刪除呼籲排除移民等的留言。另外,Facebook雖然禁止任何提借要送人到集中營的言論,但加入例外規則,例如容許「納粹應該送到集中營」——因為納粹本身是仇恨團體。

另外,Facebook亦曾設立規則,移除支持暴力抵抗外國入侵的言論,Willner解釋原因是「我們不希望處於決定誰是自由戰士的位置」。不過有熟悉Facebook內部規定的人表示,後來已取消此規定,並修訂其「恐怖分子」的定義,加入了進行有預謀暴力以達成政治、宗教或意識形態目標的非政府組織。

這規定令Facebook不時錯誤封鎖帳戶,須在其後改正決定,支持巴勒斯坦的組織更經常被Facebook封鎖,而數個在西岸媒體工作的編輯亦曾遭Facebook封鎖帳戶。今年初Facebook更關閉了巴勒斯坦執政黨法塔赫(Fatah)的專頁,其後收回決定以及道歉。

特朗普呢?

Facebook沒有刪除的貼文當中,包括美國總統特朗普(Donald Trump)對穆斯林的評價。2015年巴黎恐襲後,當時正在競選總統的特朗普呼籲「全面及完整的禁止穆斯林入境美國,直到我國的眾議員知道發生甚麼事」,顯示違反了Facebook「呼籲排斥」的準則,穆斯林亦屬於其「受保護類別」,但未有刪除。

其中一個原因可能是Facebook創辦人、董事長兼行政總裁朱克伯格(Mark Zuckerberg)決定容許特朗普的言論。根據《華爾街日報》去年的報道,特朗普的貼文引起Facebook內部辯論,有員工認為他針對穆斯林的貼文違反網站規則,而朱克伯格最終決定不刪貼文,,因為這是政治討論的一部分,而且刪文的後果或會過於激烈。

此外,針對穆斯林入境的貼文能夠在Facebook保留,亦有可能得益於那奇怪的「受保護類別」規則——貼文可以視為針對穆斯林移民及旅客,因此不算是Facebook定義的「仇恨言論」。

相關文章︰

資料來源︰

或許你會想看
更多『新聞』文章 更多『科技』文章 更多『Kayue』文章
Loader