Facebook必須阻止謀殺、性侵直播成為新常態

Facebook必須阻止謀殺、性侵直播成為新常態
Photo Credit: Giorgio Minguzzi @ Flickr CC By SA 2.0

我們想讓你知道的是

過去殺人行為只會在事後被新聞播報,或是網路最黑暗的角落被分享,人稱「snuff content」,但現在看來,殺人已經在網路上成為可即時參與的行為,被病態、愛表現的網路犯罪者散播內容。

文:Dr. Mary Aiken
譯:Wendy Chang

艾肯博士是歐洲刑警組織網路犯罪中心的學術顧問,也是《網路效應》(The Cyber Effect)一書的作者。

美國男子Steve Stephen拍攝了一段令人不寒而慄的影片,名為「復活節屠殺」(Easter day slaughter),他將自己很明顯是隨機殺人的過程錄了下來,受害者是一名74歲的老翁Robert Godwin Sr.,而Stephen在他自己的Facebook頁面公開自己的罪行。

他甚至對自己的動機給予見解,聲稱自己已與「此生摯愛」分手,而賭博也讓他「失去一切」,他還提供了自己預謀的證據:「我已經走投無路,現在的我只是個謀殺的混蛋。」這段自證的影片與2014年5月23日另一支YouTube影片有驚人的相似之處,當天加州聖塔芭芭拉的Elliot Rodger殺了六個人,並造成13人受傷。Rodger隨後在BMW轎車裡開槍自盡,而Stephen則是在4月18日經過警方短暫的追捕後,在賓州的車內引槍自裁。

Facebook花了兩個小時才把Stephen的影片下架,但已累積超過15萬的觀看人次。社群媒體公司希望即時、最前線、最原始、最有吸引力的內容,可以如病毒式地傳播。但他們得到的直播內容卻是極端的犯罪式暴力,快速地散播開來。

Stephen及Rodger的例子並非個案,今年2月,19歲的女孩Marina Lonina被以「妨礙司法公正」的罪名處以九個月的徒刑,因為她去年用社群App-Periscope直播她17歲的朋友被一名男子強暴的過程。Lonina隨後聲稱自己是要記錄犯罪的過程,而非當做娛樂影片分享,然而,她手裡有部手機卻沒有報警。

大部分的謀殺或是性侵事件是發生在偏僻隱密的地方:一個受害者、一個加害者,沒有人看到。殺人犯及強暴犯如同大部分的犯罪份子,往往會掩蓋自己的蹤跡以免被抓到。但在Lonina的案例中,網路犯罪是直播放送,而在Stephen的案子中則是以Facebook直播的方式進行,都是在數以百萬計的觀眾面前播放。而Rodger似乎希望有同樣的收視群眾。

在社群媒體上公開散播犯罪行為已經變得愈來愈普遍,從霸凌、性犯罪、謀殺,到虐待動物或虐待兒童。對於我們正在研究網路心理學(研究科技對於人類行為的影響)的人來說,迫切感正不斷地在攀升。

為什麼這一切會發生?

簡單來說:新科技意味新的行為。數位革命發生得如此之快,已經很難去區分過去的潮流、新興的行為,還有已可被接受的社會規範,這三者之間的差異。

但是我們沒有必要坐在螢幕前手足無措。由於無數的網路效應,網路心理學家可以幫助我們了解線上環境,通常人們在這種環境下與現實環境的行為會不同。

經過我一次又一次的觀察,作為一名歐洲刑警組織的顧問、國際刑警組織以及FBI等單位的合作學者,我發現人類在網路上的行為往往是放大還有加速版的。也有愈來愈多的證據顯示,網路上的同情心愈來愈少,對於他人的情感以及權利愈來愈脫離,這些都能在極端的網路霸凌還有惡意謾罵看到。網路的匿名制度就像隱形強權一樣,令這種行為更加惡化。網路去抑效應(online disinhibition effect)也是如此運作,令人更加大膽、判斷力受損,較不受壓抑,如同他們喝醉了一樣。

減敏(desensitization)則是另一種影響,在暴露在主流及數位媒體上不斷會看到的暴力以及極端內容後的結果。同時,網路暴露的特性也讓人會開始做出希望被數以百萬的觀眾看到的行為。

男性強姦女性的畫面曾一度被侷限在戰爭的殘酷畫面裡,但現在在網路的黑暗隱蔽角落也會出現,或是秘密地被共享。在Lonina的案例中,這個極端的內容是被一名明顯對此有熱情的高中生分享,而且是在Twitter上。

同樣的,過去殺人行為只會在事後被新聞播報,或是網路最黑暗的角落被分享,人稱「snuff content」,但現在看來,殺人已經在網路上成為可即時參與的行為,被病態、愛表現的網路犯罪者散播內容。

數位革命已失常,而且愈來愈難以忽視。執法刻不容緩,但我可以證明在前線的人所有的感受與剩下的我們相同。

到底是誰的錯?

是犯罪的人、其他分享圖片與影片的人、還是散播的媒體?還是裝置、服務供應商、軟體、還是提供這些服務的公司?而社群媒體平台可以輕易地上傳直播暴力以及性犯罪的內容,他們的責任又在哪裡?

目前還沒有內容分析技術能夠有效地即時過濾串流影片,必須倚賴人工一次分析一支影片。這也是為什麼社群媒體公司如Google (包含YouTube)、Facebook、Twitter都是雇用人工來進行內容審閱。事實上,在東南亞線上內容審核已經成為一個行業,雇用人力來刪除包含砍頭、拷打、強姦、以及虐待兒童的影像。但是這些內容過濾者已經出現因工作而有的情緒影響,他們反映自己出現如失眠、焦慮、憂鬱、不停做惡夢的症狀,類似創傷後壓力症候群。

我們可以做什麼反社群媒體?

正如石油公司在媒體、政府、以及倡議者的壓力下,要對自家產品間接或是直接造成的漏油進行清理,或是收拾殘局,社群媒體產業也應該為他們對人類造成的影響負起責任。一些預防性的原則已經在環保辯論的影響裡採用,執行的方法如下:如果一個行為或是政策對於大眾(或是環境)會有造成傷害的風險,在缺乏科學共識的情況下,行為者必須自行證明自己是無害的。

這個原則也應該適用於社群媒體公司在網路空間傳播的直播內容,這些公司並不只是我們溝通的媒介,也正在改變我們思考、生活、行為模式,不管是作為一個人還是整個社會。讓我們開啟這方面的討論,善後的工作需要盡快進行。

© 2017 Time Inc.版權所有。經Time Inc.授權翻譯並出版,嚴禁未經書面授權的任何形式與語言版本轉載。

責任編輯:翁世航
核稿編輯:楊之瑜