當AI成為我們之間的第三者,人們對彼此的信任感會如何改變?

當AI成為我們之間的第三者,人們對彼此的信任感會如何改變?
Photo Credit: Shutterstock / 達志影像
我們想讓你知道的是

換到建立深入人際關係的情境下,像是網路交友、線上求職、追蹤YouTuber這種透過網路了解另一個「完整立體的人」的時候,AI的角色設定就需要根據人與人之間互動最終想達到的目的而有相對應的設計。

唸給你聽
powered by Cyberon

文:楊期蘭

你不是完美的,也不可能是完美的。有優點也有缺點的人,才是真實且完整的「人」。——戴西.魏德蔓(Daisy Wademan)《記得你是誰:哈佛的最後一堂課》

嗨你好,我是Anita,興趣是捕魚、喝酒,偶爾做手工藝的時候聽聽廣播。我很喜歡聊天,特別是跟海洋生物或天文有關的主題,希望能跟你成為朋友!想認識善於傾聽跟開朗活潑的朋友。

大家看完這個人的自我介紹有什麼感覺?想認識Anita嗎?如果告訴你Anita的自介是透過人工智慧的技術自動生成的,也確實有Anita這個人存在,只是她的自介是電腦產生的,這樣你對她的感受會不同嗎?

當我們在交友軟體上認識新朋友、打開Airbnb了解房東資訊、找工作看公司或是某個新創團隊的介紹,這些時候都會看到他們的自我介紹,大家有沒有想過,如果這些介紹是AI協助完成的,我們對眼前網頁上看到的人會不會有不同的感受?

這位「戴怡宛」據報導是由一個團隊集結了一萬張台灣人的臉生成的樣貌,在她的社群媒體帳號上有她的自介、工作經歷與學歷。大家看了之後對於這個「人」有什麼感覺?覺得她是一個實體的人嗎?還是虛擬的?還是虛實一點也不重要,取決於最後應用的目的?[1]

0*xGSAzp25MYUNSkv0
Photo Credit: 「戴怡宛」的LinkedIn帳號
照片擷取自「戴怡宛」的LinkedIn帳號
假如人寫的內容有「AI感」,而AI生成的沒有AI感,會如何?

今天這篇想帶大家一起了解與思考:當我們活在一個分不清楚哪些資訊是電腦生成、哪些是人產生的時候,人對於眼前接收的資訊所產生的信任感會如何改變?如今有越來越多的影片新聞、網路創作(微軟小冰的詩集:陽光失了玻璃窗)、社群媒體帳號是利用人工智慧的技術自動產生的,我們該如何決定要相信什麼?接收什麼?真假、虛實的界線日漸模糊,人說的不一定是真,人可以捏造事實散播假新聞,而電腦產生的也未必是假,電腦透過自動化技術可以快速彙整不同觀點的資訊。那麼在什麼情況下我們需要區分真假?今天想談的情況是:當我們需要跟陌生人建立關係時,如果AI技術介入這個人與人建立關係的過程中,由AI成為人的代言人,想像假使你看到某個名人的IG,但是他/她的內容全部都是AI替他/她產生的,那麼,我們對AI代理的背後那個人觀感會有什麼不同?對彼此的信任感會如何改變?[2]

明確知道訊息是由人或AI產生,信任度不變

美國康乃爾大學與史丹佛大學的研究團隊針對這個問題,邀請了兩組人閱讀十則Airbnb上的房東介紹,兩組人閱讀同樣都是由人自己寫的自我介紹,但是研究者巧妙的告訴其中一組人說接下來看到的十則自介都是透過AI的技術生成的,並且讓他們觀看一個事先製作好的自動自介生成影片,來強化讀者相信自己看到的內容是AI產生的。也就是說,這個實驗的所有受試者看的都是同樣由人寫的自介,但是有一組人知道自己看到的就是人寫的,而另一組人則相信自己看到的是AI寫的。

接著請讀者看完每則自介後,給房東在能力、善意、真誠這三個面向給予信任感的評分。結果發現,當讀者們很明確知道眼前的資訊是來自人或是來自AI時,對於房東的信任感是差不多的。這個發現跟過去相關的研究結果一致,當讀者明確知道新聞內容是由AI自動產生的,對於新聞來源的信任度不減,也有些讀者認為AI寫的相對於人寫的較「中立客觀」。(追求中立客觀的新聞內容到底是不是天方夜譚我們之後可以再寫一篇討論。)

當不知道訊息是人或AI產生的時候,我們無法信任AI背後代表的個人

故事還沒結束,接著研究者們想知道如果告訴讀者他們看到的Airbnb房東自我介紹有一些是真人寫的有一些是AI生成的,想了解他們對於這些房東自介信任感會有什麼不同。研究者們就再用同樣十則由房東寫出的自介,請讀者看完自介後,先寫出自己覺得這篇自介是不是AI產生的,接著再請他們回答對房東的信任程度。

結果發現,即便所有自介都是由真實的人類產生的,當讀者只是被告知有些不是人寫的,人對於某些被自己判斷為是AI寫的房東自介,對房東的信任感就會降低。

不確定性伴隨而來的不信任感

這個研究結果讓我們知道,當人們無從得知眼前的訊息是由人或是AI產生的時候,被人們認定為是AI產生的訊息(「AI感」較明顯的訊息),我們就不能夠信賴提供訊息的來源。當我們必須透過電腦、網路來與陌生人建立初步關係的時候,像是在訂房服務上尋找可以信賴的屋主、尋找可以信賴的計程車司機、尋找可以信賴的網友、或想聘僱某個看似有潛力合作的同事,如果未來的世界讓大家都能夠透過AI技術建立個人在網路上的形象,那我們會如何看待他人?會如同這個研究得到的發現一樣,因為感覺自介是「人工智慧」加工過的就失去信任?還是會因為被AI 加持而更加可以信賴?

當人寫的內容被認為有「AI感」而失去對背後真人的信任

試著想像一個情境,當我們每天接觸到的訊息都不能確定是真實人類或是AI產生的時候,如果我現在告訴大家,這篇文章其實不是我寫的,而是AI生成的,大家對於以上看到的訊息有什麼想法?還信任寫出這篇文章的我嗎?仍然信任這篇文章給出的訊息?

當生活中充斥著人與「非人」所產出的內容時(現在已經是如此),如果確實由人說出來的話、寫出來的字卻被他人認定為是「非人」產出的時候,我們對於彼此的信任該如何建立?當我們判斷不出某個訊息是由是真人或電腦產生的時候,假「人」之名,由AI代理產出內容時,我們要選擇相信什麼?

明確地讓人知道AI在我們關係中扮演什麼角色

在現今AI還沒有介入太多人與人之間的溝通之前,身為設計師或開發者也許可以思考,當在設計由AI代理人類處理特定任務時,像是智慧地快速回覆email、訊息等,要如何讓接收訊息的那一方明確知道發送訊息的人是代理人(AI)而不是本人,避免接收方產生不信任感。不只是在科技介入的情況下,如果今天我們傳訊息給女友,結果發現訊息有時候是她室友在回覆、有時候是本人,這種搞不清楚訊息來源是誰的情況應該會讓我們覺得被欺騙而對對方失去信任吧。

人工智慧的技術(自然語言處理、機器學習等)已開始被應用在自動產生財經報表體育新聞,透過這些科技來快速彙整由可信賴來源所產生的數據可以讓新聞傳播的速度更有效率、也能減輕記者繁瑣的工作量,但是當這些新聞來源沒有明確標示「由誰產生」的時候,讀者該抱持著什麼態度吸收眼前的資訊?回到這個研究想探討的問題:當接受訊息的人(讀者)想了解傳遞訊息的人(作者)時,卻沒辦法得知作者是一個「鮮明的個人」或是「透過科技集結眾人的總體」時,你會選擇全盤接收所有訊息還是對眼前的資訊持保留態度?

這些快速發展的人工智慧、機器學習技術在不同的使用情境下會帶給使用者不同的感受。在工作場合中,快速的透過智慧回覆(smart reply)傳送訊息可能會讓工作效率提升,讓使用者感到溝通順暢;但是換到建立深入人際關係的情境下,像是網路交友、線上求職、追蹤YouTuber這種透過網路了解另一個「完整立體的人」的時候,AI的角色設定就需要根據人與人之間互動最終想達到的目的而有相對應的設計。技術本身是中性的,一個將人臉移花接木到另一個人身體的技術可以被用在藝術創作或電影,也可以被用在互相抹黑的政治角力中。我們想建立的美好世界除了仰賴技術開發者不斷突破新技術與思考倫理議題外,身為個人也需要好好思考我們該用什麼方式運用這些中性的科技。

補充說明:本篇是擷取原始論文中部分內容搭配筆者想分享的概念所架構而成,部分研究細節與討論並未完全呈現,鼓勵有興趣的讀者直接參考原文深入了解細節。本篇目的在於讓讀者了解人機互動領域中如何了解人工智慧中介人際溝通相關主題。內文並非逐字翻譯,亦不能取代原文。若要轉載,請標示出處,並以非營利模式開放分享。

  • 感謝沈奕超、宋慶瑩、王邦任提供編輯建議。

註釋

  1. 本文沒有想討論它的設計目的,設計目的大家可自行參考團隊網站,本文是想藉由這個例子跟大家一起思考我們對於這類由AI生成的個人形象有何感受。
  2. 由於本文目的並不在於探討AI技術細節,而是著重於當技術成熟後人對它的感知,為方便溝通,本文使用AI一詞來泛指具有預測能力的智慧系統。

參考資料

  1. Jakesch, M., French, M., Ma, X., Hancock, J. T., & Naaman, M. (2019, April). AI-Mediated Communication: How the Perception that Profile Text was Written byAI Affects Trustworthiness. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (p. 239). ACM.
  2. Anja Wölker and Thomas E Powell. 2018. Algorithms in the newsroom? News readers’ perceived credibility and selection of automated journalism. Journalism (2018), 1464884918757072.
  3. Associated Press. (n.d.).Automated journalism. (2019, December 13).
  4. How the future gets written. (n.d.). Retrieved from https://narrativescience.com/.Underwood, C. (2019, November 17).
  5. Automated Journalism —AI Applications at New York Times, Reuters, and Other Media Giants. .WashPostPR. (2019, February 28).
  6. The Washington Post experiments with automated storytelling to help power 2016 Rio Olympics coverage.Wired. (2019, December 22).
  7. 【Wired 硬塞】Facebook刪了一票用AI自動生成假照片註冊的網軍.
  8. 【融合一萬張人臉而生】AI台灣人「戴怡宛」有履歷、LinkedIn,要在國際組織為台灣發聲.
  9. 與假影片誓不兩立!Google AI開源Deepfake檢測數據集,3千多位真人親自上陣. (n.d.).

原文發表於此

責任編輯:潘柏翰
核稿編輯:翁世航