電腦為女性名字履歷打低分、無人機成自動殺人武器⋯⋯如何減少AI使用的倫理與風險?

電腦為女性名字履歷打低分、無人機成自動殺人武器⋯⋯如何減少AI使用的倫理與風險?
Photo Credit: Shutterstock / 達志影像

我們想讓你知道的是

Google上搜尋資訊、對手機喊「Siri現在外面有下雨嗎?」、]YouTube或Netflix推薦觀賞影片,甚至是投履歷求職、銀行審核貸款申請等都常用到AI技術,它早在我們日常生活中隨處可見。但也正是如此,讓人們這幾年在使用AI時,逐漸發現它可能造成的問題或傷害。

文:甘偵蓉(清華大學人文社會AI應用與發展研究中心博士後研究學者)

Take Home Message

  • Facebook或Instagram的訊息推薦、YouTube或Netflix推薦觀賞影片、掃描臉部以解鎖手機,AI應用早已在我們日常生活中隨處可見。
  • AI應用中四種常見的倫理和風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。
  • 近年來各國家皆制定有關AI發展的規範,台灣則在2019年制定「AI科研發展指引」,期望能改善AI發展帶來的問題與風險。

當談到人工智慧(artificial intelligence)、也就是AI時,讀者會想到什麼?是多年前由史匹柏(Steven Spielberg)導演的那部《A.I.人工智慧》(A.I.)中那個一直盼不到人類母愛、令人心碎的機器人小男孩?還是由史密斯(Will Smith)主演的《機械公敵》(I, Robot)裡,那些沒遵守機器人三大法則的機器人或中央系統?

或許未來有一天,人類真的可以設計出如電影中那些像人一樣的AI系統或機器人。但目前為止,你常聽到的AI其實既很厲害又很不厲害,為什麼呢?厲害的是它下圍棋可贏過世界冠軍,還能夠比放射科技師更快、更準確地辨識X 光片中疑似病變的細胞;但它不厲害的是,很會下圍棋的AI就只能下圍棋,別說不會打牌,連撲克牌是什麼都不知道!而且每次學新事物幾乎都是打掉重練,得不斷做好多考古題才有可能學得會,不像人類通常教幾次就會舉一反三。

不過,即使目前世界上的AI都是這種只具備特定功能的「弱AI」(artificial narrow intelligence, ANI),但已經為這個世界帶來相當大的進步與便利。所以,以下要談的就是ANI的倫理與風險。

談到這種只具特定功能的ANI,讀者知道目前生活周遭有哪些事物有利用AI技術嗎?其實Google上的搜尋資訊、Facebook或Instagram的訊息推薦、對智慧型手機喊「Siri現在外面有下雨嗎?」等功能,或是以掃瞄臉部解鎖手機與進入大樓、YouTube或Netflix推薦觀賞影片,甚至是投履歷求職、銀行審核貸款申請等都常用到AI技術,它早在我們日常生活中隨處可見。

但也正是如此,讓人們這幾年在使用AI時,逐漸發現它可能造成的問題或傷害,以下簡單介紹常見的四種AI應用可能造成的倫理問題或風險。

演算法偏誤

第一種是演算法偏誤(algorithmic bias)。什麼是演算法偏誤?簡單來說就是AI在某些群體的判斷準確率或預測結果上總是很差,導致結果可能對於此群體造成系統性的不利。但為何會造成演算法偏誤?常見原因有三項。

第一項原因是,建立AI模型的研究資料集有偏誤,在性別、種族、社經地位等特徵上,沒有真實世界的人口分布代表性。例如數位裝置採用AI臉部辨識技術解鎖,原本是希望保護個人使用數位裝置的安全性,結果皮膚深的人卻常常遇到辨識失敗而無法解鎖。

這通常是因為目前許多AI模型都是以機器學習技術設計,而機器學習的主要特性就是從過去人類留下的大量資料中學習。當初提供電腦學習臉部辨識的圖片時,如果多數都是白皮膚而非黑皮膚、多數都是男性的臉而非女性的臉,那麼電腦在學習辨識人臉的準確率上,整體而言辨識男性白人就會比辨識女性黑人要高出許多。

第二項產生演算法偏誤的原因,是建立AI模型的研究資料集不只有偏誤,還反映現實社會中的性別、種族、社經地位等歧視。例如美國警政單位以過往犯罪資料訓練出獄後犯人再犯風險評估的AI模型,那些資料不意外地有色人種的犯罪紀錄遠多於白人犯罪紀錄。

然而,那些紀錄也反映美國社會長久以來對於有色人種的歧視,其中包含警察對於有色人種的盤查比例遠高於白人、法院對於有色人種的定罪比例及判刑嚴重程度也遠高於白人、警力通常被派往多黑人與拉丁裔人種居住的窮困社區盤查等。所以根據過往犯罪資料所訓練出來的AI模型,不意外地也就會預測有色人種的再犯機率普遍來說比白人高。

第三項產生演算法偏誤的原因則是AI學會了連系統開發者都沒有察覺到,潛藏在資料裡的偏誤。例如科技公司人資部門本來想借助AI更有效率地篩選出適合來面試的履歷,所以挑選在該公司任職一定年資且曾升遷二次的員工履歷來訓練AI模型。問題是,高科技公司向來男多女少,所提供給AI學習的資料自然就男女比例相當不均。AI也就學會了凡是出現偏向女性名字、嗜好、畢業學校系所等文字的履歷,平均所給的評分都比出現偏向男性等相關文字的履歷還低。

但目前科技公司陽盛陰衰,是受到以往鼓勵男性就讀理工、女性就讀人文科系,或男性在外工作女性在家帶小孩等性別刻板偏見所影響。所以20 ~ 30年來許多人做出各種努力,以消除這種性別刻板偏見所帶來的不良影響。政府也努力制定各種政策來消除這種不當的性別偏見,像是求才廣告基本上不能限定性別、公司聘雇員工應該達到一定的性別比例等。

因此,訓練AI的研究資料一旦隱藏類似前述性別比例不均的現象,訓練出來的AI預測結果就彷彿帶有性別歧視,讓人們過往致力消除性別不平等的各種努力都白費了!

其他AI應用帶來的倫理與風險

除了演算法偏誤的問題外,第二種可能帶來的倫理問題或風險是AI技術已經偏離原先使用目的,例如深偽技術(deepfake)原本用來解決圖片資料量不夠的問題,後來卻被利用在偽造名人性愛影片等。

第三種則是有些AI技術或產品本身,就可能有善惡兩種用途(dual-use)。例如AI人臉辨識技術可用在保護數位裝置的使用者或大樓保全,但也可用來窺探或監控特定個人;無人機可以在農業上幫助農夫播種,但也可作為自動殺人武器;可用來搜尋如何產生毒性最少的藥物合成演算法,也能反過來成為搜尋如何產生毒性最強的藥物合成演算法。