【數位公民週報】當科技遇上性犯罪:助長「騷擾遊戲化」的Deepfake技術

【數位公民週報】當科技遇上性犯罪:助長「騷擾遊戲化」的Deepfake技術
Photo Credit: Shutterstock / 達志影像

我們想讓你知道的是

隨著深偽技術漸趨成熟,加害者在社群中提供各種變造裸照的服務,照片越受歡迎、則猶如獲得遊戲成就,更受激勵。其中受害者多為女性,更不乏幼齡女童。

文:陳廷彥、林冠廷

根據MIT科技評論轉述,美國心理學會進行的一項研究中,指出每12名女性一生中至少會成為一次復仇式色情(Revenge Porn)的受害者。過去復仇式色情指的是將被害者裸照、私密影片在未經同意的情況中上傳,但現在因為科技演進,電腦已經可以逐幀合成裸體照片,把未帶有情色意味的生活照、日常影片,變成受害者人生夢魘。

如同2019年一月出現的DeepNude手機app,可讓用戶以USD$50一次的價格上傳女性照片,並載回該女性看似真實的「裸照」。此應用deepfake(深偽技術)技術的app一時瘋傳,雖後來開發者緊急下架,但也已經造成眾多女性的合成照流入網路。

根據Karen Hao在MIT科技評論中名為〈深度合成機器人被拿來對未成年女孩「寬衣解帶」〉的文章中,某些社交平臺甚至成為深度合成的溫床,散播名人合成裸體影像,甚至有「性騷擾遊戲化」(The gamification of harassment)的趨勢,照片越受歡迎,合成者則越獲得成就與獎勵感,讓此非法行為變本加厲。

你可能常常在軟體中看到一行「某某公司版權所有,2020年」的聲明,或是一個「©」的符號。如果你是使用者,只要不打算改做、散布軟體,這串文字並沒有太大實質意義;但如果你是開發者,情況可能就有所不同。

Red Hat的法律團隊成員Scott K Peterson以「開放原始碼專案應該如何處理版權聲明」為題,在opensource.com撰寫了一篇簡短介紹。他指出,這串文字在美國曾經相當重要——最糟的狀況下,如果開發者沒有放上這串版權聲明,產品可能因此失去法律保護。這也影響了許多開源授權的規範。

現在這條法規不再適用,但有些開源授權仍然留有舊時代法規的聲明精神,或版本不一、維護不善。如果你是開發者,可以點入原文看看你該怎麼做。

Middle aged man has a break from working in office
Photo Credit: Depositphotos

我們都知道,開放原始碼可以是一個人的業餘興趣,也可以變成商業公司的營利秘器。

開發者懷著不同心態開創、進入開源社群——想要學習、想要被社群成員認同、想要讓自己的程式能力獲得大公司青睞,但是開源的道路從來都紛紛擾擾,社群也時有歧見紛爭、文化鬥爭不斷,有些重要的貢獻者同時可能是變態騷擾者;大公司則在旁漁翁得利、收編成功專案;社群初衷或綱領過時許久等。

Tatum Hunter在Built In中撰寫了一篇文章,試著碰觸這個敏感問題:當開源成果無可避免會讓糟糕的人所取用,而且社群一向存在許多問題,是否應該乾脆離開開源?

隨著英美禁止華為等中國企業的5G技術落地,瑞典也在10月間加入這個行列。

根據Axios,該國以「廣泛蒐集情報與盜竊技術」為由,要求電信企業應該在2025年之前將華為、中興(ZTE)等中國的產品從5G基礎建設中移除。這個決定同樣憑藉國家安全,其背後的國際政治角力,將持續蔓延各地。

無論是Google的Assistant、Amazon的Alexa,或是Apple的Siri,都有一個共通之處:上市時大公司都選用女性的聲音。

Mashable記者Rachel Kraus與《The Smart Wife》(智慧妻子)一書的作者在〈讓智慧裝置「性別中立」無法消除其深根蒂固的性別歧視〉文中進行對談,談論到大公司為了製造科技產品平易近人、融入家庭的形象,他們運用長久以來社會父權架構所製造的種種性別偏見,用性別歧視包裝商品,將這些裝置與女性溫柔、婉約的刻板印象連結。

AP_18282647549304
Photo Credit: AP / 達志影像

早期開發的裝置接受到對女性侮辱或挑釁問題時,甚至厚臉皮地預設「如果可以,我會臉紅」之類的嬌羞回答。這些問題不會因為他們增加男性語音就會自己消失,我們在對抗父權的同時,也要關心這些產品的服務內容、語音對話是否隱含更多歧視與偏見。

延伸閱讀

本文經OCF Lab授權刊登,原文發表於此

責任編輯:丁肇九
核稿編輯:翁世航


猜你喜歡

Tags: