美國擬用演算法「極端審查」移民 科技專家、民權組織聯署反對

美國擬用演算法「極端審查」移民 科技專家、民權組織聯署反對
Image Credit: depositphotos
我們想讓你知道的是

美國移民及海關執法局推出「極端審查先導計劃」,希望以演算法判斷移民會否帶來安全威脅。這項計劃被科技專家及民權組織批評,除了技術上不可行外,更容易導致歧視、傷害言論自由等後果。

唸給你聽
powered by Cyberon

特朗普競選美國總統期間,除了要求在美國與墨西哥之間的邊境興建圍牆外,亦提出要對移民作「極端審查」,包括回答「意識形態測試」問卷。

今年8月,《截擊》(The Intercept)報道美國國土安全部(DHS)轄下的移民及海關執法局(ICE)曾舉辦活動,邀請有意助協該部門打造工具的科技公司,當中包括IBM。

極端審查計劃

根據一份題為「極端審查先導計劃」的ICE文件,ICE目前評估移民的犯罪或恐怖主義傾向的能力不足,需要花大量人力及時間。該部門希望能夠將審查過程自動化及中央處理,以節省時間,文件更指出這是為了落實特朗普的相關行政指令。

簡言之,ICE希望參與的科技公司可以建立一套資料探勘軟件,協助他們的探員更快發現目標人物。

昨日兩封超過100個民權組織以及科技專家聯署的公開信,指出要符合ICE審查要求的軟件技術上不可行,而且嘗試以軟件審查移民,最終會導致更多歧視以及影響自由。

指標難定義,演算法易誤判

54位來自科學、數學及工程等領域的專家表示,他們專長是機器學習、資料探勘以及自動化決策等技術,對於ICE提出的「極端審查先導計劃」深表關注。

聯署的專家認為,目前沒有任何計算方法能提供可靠、客觀地評估ICE想找出的特徵,最終系統只會不準確及帶有偏見,促請當局三思。

信中指出,根據ICE的文件,該計劃目標是「透過自動過程判斷」一個人將來會否成為「對社會有正面貢獻的一員」以及「將會對國家利益有貢獻」。然而專家表示,目前聯邦政府以至其他人均未有定義這些特質,遑論可以量化評測。因此用來預測這些特質的演算法,可能會被用作偽裝客觀地任意標示各組移民。

聯署專家指由於相關特質難以準確定義、測量,任何演算法都會基於較容易觀察但不太相關的「代理指標」作判斷,例如在Facebook上批評美國外交政策,可能會被視為威脅國家利益;又例如以收入去衝量一個人對社會的貢獻,即使這項指標未能準確反映一個人在社區及經濟體系中的角色。

罕有事件難預測,無辜者受害

另外,「極端審查先導計劃」打算自動化判斷一名移民會否「有意犯下」恐怖襲擊或其他罪行。然而聯署專家指出,已有大量文獻顯示,在預測罕見事件時,即使「最佳」的自動化決策模型都會產生大量無法接受的錯誤。

而恐襲正是罕見事件,因此最準確的模型也會產生大量「假陽性結果」——無辜的人被演算法判斷為有犯罪、恐襲風險,使他們面對不相稱的嚴重後果。

信件最後指出,資料探勘是很強大的工具,如能適當使用,會對美國的工業、製藥以至整個社會有極大好處。他們理解美國政府必須執行移民法例及維持國家安全,但ICE設定的方向既不恰當,亦不可行。

為歧視度身訂造

同日,美國公民自由聯盟(ACLU)、國際特赦組織、電子前線基金會(EFF)、人權觀察等56個組織亦作出聯署,反對「極端審查先導計劃」。

信件特別指出,ICE意圖以社交媒體分析作出的預測,以現有技術根本無法做到。社交媒體上的貼文意思往往非常受脈絡影響,人類判斷出錯並不罕見,而演算法就連判斷貼文屬正面、負面抑或中性亦有困難。再者,大部份相關工具無法可靠分析英語以外的其他語言,以此要審查來自全球各地的移民就更困難。

然而ICE的焦點只在數量,當局公布取得合約的公司必須能夠每年進行最少1萬宗調查,卻未有提到調查是否適當。

聯署組織認為,這項先導計劃是為歧視度身訂造,其目標源自特朗普的旅遊禁令——數個版本因涉及歧視而被聯邦法院反對。而且特朗普曾表示,他提出的穆斯林移民禁令「演變成極端審查部份地區」——正是先導計劃的名字。

寒蟬效應

信件亦批評計劃會導致寒蟬效應、傷害言論自由,違反美國憲法第一修正案、《世界人權宣言》及《公民權利和政治權利國際公約》中提到的權利。

信中解釋,ICE要求外判高分析公開資訊,包括媒體、出版物以至各種網上言論。申請及獲得簽證者如果得悉美國政府會定期監察其網上言論,以接納其簽證或將之遞解出境,而且無法向當局辯解,會令他們在網上自我審查。

聯署組織認為,這種監控不會局限於短期的簽證持有人,很可能會延展至永久居民,因為計劃的目標明確表示,無法持續審查永久居民會導致「ICE無法辨認可能在移民到達美國後才出現的危機,如激進化」。

信件最後指出,「極端審查先導計劃」的系統不會如ICE所言般運作,反而會以客觀的外貌隱藏有政治傾向、歧視性的決定,並付上言論自由、公民權利以至人權的重大代價,傷害人民並拆散家庭。

複製歧視

以人工智能分析數據,其中一大風險就是演算法「學習」了人類的偏見,複製現有制度的歧視和壓迫。例如《ProPublica》去年一項調查報道指出,一款用作預測罪犯重犯風險的軟件在犯錯時,黑人較白人更容易被標示為「高風險」。法官會以這項軟件的預測作指引,去決定被告的保釋金額、犯人刑期等,軟件的偏差導致種族不公。

相關文章︰

資料來源︰