特別報導

【TIME】【FORTUNE】全球中文獨家授權

歐洲GDPR將揭發「人工智慧」嚴重的隱私問題

2018/05/30 ,

評論

FORTUNE

Photo Credit: succo@Pixabay CC0 Creative Commons

FORTUNE

財星雜誌是商業財經媒體中的全球領導者,旗艦內容包含全球前五百大企業報導、百大最佳企業雇主。

我們想讓你知道的是

如果你的機器學習系統充滿了個人數據,那麼在GDPR的運作之下,必須能夠將這些信息從混合資料中提取出來,並改變它和限制對它的使用,並解釋該系統是如何運作的。

文:DAVID MEYER
譯:劉聲安

「人工智慧」技術目前正在蓬勃發展,但它即將面臨一個重大障礙:歐洲新的一般資料保護規範Europe’s new General Data Protection Regulation, GDPR)。

根據一位知名網路法律學者的觀點,上週五(5月18日)在歐盟各地生效的隱私法有幾個要素,而這些要素將使構建機器學習系統的公司面臨困難

蘇格蘭格拉斯哥斯特拉斯克萊德大學的法學教授莉蓮愛德華茲說,「大數據完全反對資料保護的基礎。我認為人們一直說我們可以讓這兩者相互調和是有爭議的,因為這非常困難。」

問題在於,機器學習──我們稱之為人工智慧的基礎──涉及逐漸改進自身表現的演算法。他們透過收集數據來做到這一點。他們收集到越多,在識別固定模式的能力就越好:語音模式可以讓機器人聽起來更像真人;視覺模式幫助自動駕駛汽車系統識別道路上的物體;客戶行為模式培訓銀行的人工智慧系統以更有效率的方式發現欺詐行為。

一直以來,演算法超越了創造者對它們的理解,並且數據以新的和未知的方式與其他數據相結合。

現在讓我們回到一般資料保護規範(GDPR),它的內容是:

  • 當他們收集個人數據時,公司必須說明它將用於什麼,而不是將其用於其他任何用途。
  • 公司應該盡量減少他們收集和保存的數據量,並將其限制為這些目的所必需的──他們應該限制他們持有這些數據的時間長短。
  • 公司必須能夠告訴人們他們掌握了哪些數據,以及如何處理這些數據。
  • 如果有要求,公司應該能夠改變或刪除人們的個人資料。
  • 如果使用個人數據做出有關人員的自動化決策,公司必須能夠解釋決策過程背後的邏輯。

您看到問題了嗎?

愛德華茲說,「大數據挑戰了目標限制,數據最小化和數據保留──大多數人從來沒有用大數據成功去除它。它挑戰透明度和同意的概念,因為如果不知道你同意什麼目的,你就無法合法地進行同意......演算法透明度意味著你可以看到如何達成決定,但你不能在(機器學習)系統中進行同樣的要求,因為它不是基於規則的軟體。」

據該教授稱,當公司使用人們的數據推斷關於他們的事情時,問題會變得更加嚴重──敏感的個人數據(包括性向、政治和宗教信仰等)在GDPR下得到更強大的保護。

通常,GDPR為企業提供了可處理人員數據的法定理由,例如需要使用該數據來提供核心服務。但是在涉及這類敏感數據的情況下,人們必須明確同意該企業處理他們的資料。

愛德華茲說,「如果它是敏感數據,那麼就沒有豁免權了。人們嘗試擺脫它的另一種方式是說:『我們不處理個人數據,因為我們對它進行了匿名處理。』但是,如果你獲得了足夠多的大數據並將其與其他大數據相結合,你幾乎可以識別每個人。它不符合GDPR中匿名數據的定義。現在的定義是,如果您可以用您的數據識別個人,那麼您就擁有了個人數據。」

如果你的機器學習系統充滿了個人數據,那麼在GDPR的運作之下,必須能夠將這些信息從混合資料中提取出來,並改變它和限制對它的使用,並解釋該系統是如何運作的。

愛德華茲補充道,「事實上,我正在與那些試圖製作可解釋的系統的人合作,但目前它僅僅限於學術研究。」

© 2018 Time Inc. 版權所有。經Time Inc.授權翻譯並出版,嚴禁未經書面授權的任何形式與語言版本轉載。

責任編輯:朱家儀
核稿編輯:翁世航

專題下則文章:

梅根似乎不是英國皇室第一位具黑人血統的成員



【TIME】【FORTUNE】全球中文獨家授權:

《關鍵評論網》獨家獲得時代雜誌與財星雜誌全球中文數位版授權,將每日提供兩大媒體品牌文章的中文譯文,題材涵蓋國際政治、財經、科技、文化、歷史、生活、娛樂等各領域。

看完整特別報導