《洋蔥式閱讀系列—AI》:不設限地發展人工智慧,將會釀成災難

《洋蔥式閱讀系列—AI》:不設限地發展人工智慧,將會釀成災難
Photo Credit: Reuters / 達志影像

我們想讓你知道的是

中國與其他國家的行徑,在在說明了開發人工智慧須注重倫理的重要性。過去短短兩年內,就有許多人致力於探索有倫理的AI。許多組織都秉持著此信念:不設限地發展AI將會釀成災難。

文:范雪萊、馬修.泰勒

系統偏見只是AI在社會中可能被誤用的其中一個例子。另一個例子則是侵犯隱私。

被系統自動標註在令人尷尬的臉書貼文中,是相對無關緊要的例子。但在專制社會中,逐漸浮上檯面的故事就更加令人不安了──獨裁政府欣然使用臉部辨識技術來追蹤公民的動向。中國最大的人工智慧企業商湯科技(SenseTime)最近公開表示,監控事業占了該企業總業務量的三分之一。

這間公司開發的軟體可即時識別與分辨監視影片中的移動物體,提供鏡頭所捕捉到的每個人的資訊:他們的性別、穿什麼顏色的衣服、是兒童還是成人。

若把這些個人資料儲存進商湯科技的系統中,AI甚至能拼湊出個別身分。預計到2030年,中國的中央政府會投入大量資金打造價值約1500億美元的人工智慧產業,其中大部分用於強化國內安全。

政府利用AI來處理1.7億個監視攝影機所蒐集到的影像,中國已能對不守規矩的行人自動祭出懲罰,或辨識逃犯。

洋蔥式閱讀!:AI(P081)_圖片A
© Reuters / Thomas Peter
(A)這套商湯科技系統的監視介面可監控北京一間商店的顧客行為。它涵蓋了商店的多個入口與位置,即時更新訪客數量、在每個位置停留了多少時間,以及訪客的移動模式。
洋蔥式閱讀!:AI(P081)_圖片B
© Reuters / Thomas Peter
(B)商湯科技的系統能解析安裝在街道與各個角落的監視攝影機所蒐集到的資料,並識別行人的年齡和性別等細部資訊。這套軟體同樣也能辨識車輛的資訊,包含顏色、品牌與型號。

使用人工智慧的監視系統目前能執行到什麼程度的監控──從前述案例還只看得出一點端倪。2014年,中國國務院公布,要在2020年前強制推行社會信用體系計畫。

此系統會追蹤民眾的日常生活行為,再用這些數據去判斷公民的可信度,也就是他們遵從政府價值觀的程度。

根據監控資料,公民會得到一份公開的分數,這個數值會決定他們能獲得多少抵押貸款、小孩可就讀哪所學校、是否有權利旅行,或是會被限制網速的程度。這套計畫很接近亞馬遜的顧客追蹤系統,

但它卻有令人膽寒的歐威爾式發展:社會信用體系將建立終生與公民形影不離的調查報告,而非用來加強購物體驗的個人檔案。

不幸的是,若這樣的制度有利於中國政府,其他國家可能會起而效尤。

正如其政策所述,中國希望「打造持續表揚誠信的輿論環境」,這無疑是所有專制政府的共同想法。

如果社會全面部署人工智慧,那麼後續民眾的隱私或言論自由會受到多大的侵蝕?

洋蔥式閱讀!:AI(P082)_圖片A
©Reuters / Kim Kyung-Hoon
(A)據估計中國有2億個監視攝影機。人工智慧的加入有助於建立社會信用體系:按照公民的行為對其評分,讓中國邁向「演算法治理」的未來。
洋蔥式閱讀!:AI(P082)_圖片B
©Andrea Pistolesi / GettyImages
(B)數百個攝影機不斷監控著香港重慶大廈,以防堵危險或非法行為。全面的監控系統讓進出建築物的人在鏡頭下幾乎一覽無遺。
未命名
©Eye in the Sky: Real-time Drone Surveillance System (DSS) for Violent Individuals Identification using ScatterNet Hybrid Deep Learning Network, by Amarjot Singh, Devendra Patil and S. N. Omkar
(C)結合深度學習與電腦視覺的無人機監控系統可根據肢體行為,偵測出公共空間裡的暴力行徑。此監控設備為一套即時系統。

並非只有專制社會才會用人工智慧來進行監控。最近有新聞指出,亞馬遜發表了一款能在單一影像裡追蹤上百人的工具,且已開始被美國警方採用。亞馬遜與美國奧勒岡州華盛頓郡(Washington County)合作開發一款手機程式,執法單位能用它來掃描圖像,與該郡的臉部辨識資料庫進行比對,基本上就是把智慧型手機變成一台監控裝置。

最令人不安的是,這一切都是悄悄進行的,未有太多的辯論探討這項技術會不會侵犯人權或導致社會不公──尤其是對邊緣群體來說。

中國與其他國家的行徑,在在說明了開發人工智慧須注重倫理的重要性。過去短短兩年內,就有許多人致力於探索有倫理的AI。OpenAI、Google DeepMind的倫理與社會研究單位、AI技術產業聯盟夥伴、英國的資料倫理與創新中心、卡內基美隆大學的AI倫理研究中心都敦促工程師在持續投入AI研究時,要優先考量倫理問題。

這些組織都秉持著此信念:不設限地發展AI將會釀成災難。

未命名
©Gianluca Mauro – AI Academy
(A)從這些圖表可看出學術界中的AI研究速度與產量都在顯著成長。2018年,2000多名AI研究人員簽署了請願書,要求抵制一本備受矚目、新的付費期刊,為的就是要保持AI研究的透明性。

2017年,有一份特別針對在性能變得更強且更加無所不在的情況下,人工智慧的潛在惡意使用方式的報告──由來自學界、民間團體與產業界20多名共同作者所發表。報告中列舉了一些恐怖的例子:一輛系統異常的自駕車可能會刻意撞向人群,或被狹持來運送爆裂物;藉著惡意軟體影響採用AI技術的大腦或心律調節器,可能被用來執行遠端暗殺行動;或者,罪犯也可以使用臉部或聲音模擬技術,針對特定對象進行詐騙。

此報告呼籲人工智慧研究人員在他們開發的技術中建立防護措施,同時要更公開討論潛在的安全與防護問題。

出人意料之外的是,這份報告甚至建議研究人員不應公開發表某些想法或應用方式。多數的研究人員樂見開放政策,也會在部落格上發表他們的研究成果,並將他們的程式碼開源(open–source)。人工智慧領域的許多人相信,與其祕密開發可能後患無窮的AI程式,倒不如公開它的存在,讓大家於潛在的濫用行為發生前就有所警覺。

事實上,Google就用這個方式為他們的語音模擬程式「語音雙攻技術」(Duplex)辯護:Google公開了具潛在破壞性的AI程式,以邀請社會大眾批評指教應如何管控此技術的使用。

書籍介紹

《洋蔥式閱讀!當代關鍵議題系列:人工智慧會不會取代人類?》,臉譜出版
.透過以上連結購書,《關鍵評論網》由此所得將全數捐贈聯合勸募

作者:范雪萊、馬修.泰勒
譯者:余韋達

洋蔥式分層閱讀,按內容深淺階梯式排版──依個人閱讀喜好,自由跳接、由簡至繁,秒懂當代不可不知的世界議題。

  • 本系列入圍英國圖書設計與製作獎(British Book Design & Production Awards)
  • 大量近期時事、趨勢照片,搭配詳實解說,輔助讀者慎思明辨重要議題
  • 從最大字級一眼抓出議題關鍵字;到次大字級重點式釐清觀念;亦可細讀小字、深度理解當代必知的議題內涵

參與公民社會與政治思辨必懂的基礎知識:民主從哪裡來?現在出現了什麼問題?未來又將怎麼發展?

getImage_(1)
Photo Credit:臉譜出版

責任編輯:朱家儀
核稿編輯:翁世航


Tags: