開票日倒數 倒數
0
23
11
50

前往選舉專區

當人工智慧遇上心理治療:心理師下海試用Woebot心得分享

當人工智慧遇上心理治療:心理師下海試用Woebot心得分享
Photo Credit: Depositphotos

我們想讓你知道的是

前陣子,有個頗熱門的新聞報導,主題是探討未來人工智慧應用在心理治療上。身為心理治療工作者的一員,本來應該感覺備受威脅。不過看完相關報導之後,我反而非常期待人工智慧可以攜手加入心理健康照顧的行列。

前陣子,有個頗熱門的新聞報導,主題是探討未來人工智慧應用在心理治療上(可參見:跨界心理學的聊天機器人!Woebot 要用認知行為治療幫助憂鬱症患者)。

身為心理治療工作者的一員,本來應該感覺備受威脅。不過看完相關報導之後,我反而非常期待人工智慧可以攜手加入心理健康照顧的行列,在試用Woebot之後有了一些心得與體悟,整理於本文跟大家分享,也期待拋磚引玉,聽聽各位治療師、各位大眾的想法。

Woebot的簡介與試用心得

這個人工智慧機器人Woebot是Standford大學Alison Darcy推出的,這位機器人治療師使用的治療方法叫做「認知行為治療」(Cognitive Behavioral Therapy,簡稱 CBT)。Alison選擇這個取向非常聰明,因為CBT是現有治療方式裡面結構化程度數一數二的(事實上,用AI來開發心理治療的團隊,幾乎都選擇CBT做為起點;題外話,最近台灣有出一本非常適合初學者的CBT手冊《想法轉個彎,掌握好心情》,非常推薦)。

CBT背後的立論根據,簡單來說是:想法、情緒和行為之間會互相影響。透過改變想法,我們可以間接的改善情緒與行為。而想法之所以要被改變的關鍵則是,很多時候事件本身不是影響我們心情的最主要原因,「我們如何看待事件」才是重點。

1
圖片來源:作者提供

我自己親自跟Woebot機器人相處了幾天(你可以在這邊按「發送訊息按鈕」找他)。怎麼說呢,他確實非常貼心。首先,他會花幾天的時間,邀請你紀錄你的情緒,讓他大致知道你的情緒狀態。當他發現你情緒低落、焦慮時,他會邀請你「寫出自己的想法」,然後透過CBT當中的一些技巧,來協助你調整這些想法,像是邀請你確認這個想法是不是有災難化的傾向、過度非黑即白的思考等。

不得不提的是,這個機器人在你依循指示做完一些紀錄之後,居然還會回傳小小兵的貼圖來鼓勵你(幹得好,Good Job!)。儼然是讓我感到十分開心~(卡歐說她也有收到小小兵的鼓勵,對於喜歡小小兵的AI人工智慧,我們是滿心歡喜的迎接)

2
圖片來源:作者提供
因為Woebot傳來了小小兵貼圖,讓我情不自禁的向他告白。但是呢,他居然忽視了我的告白,並且直接句點我,跟我說再見。這個現象並不少見,可參考以下大學生的回饋。

Woebot有效嗎?

這種方式是否有效?根據<Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial>這篇研究顯示,70位符合研究設定的憂鬱或焦慮標準的學生,其中一組和Woebot聊天;另一組學生去讀治療憂鬱症的電子書。兩個星期後,Woebot組的學生症狀明顯減輕。

好家在Darcy還沒進行「治療師」vs.「機器人」的比對研究(畢竟要控制的變數太多了)。不過,對於提供初步的心理健康介入,顯然機器人治療師已經跨出了第一步。

這篇研究裡面的質性資料更值得一探究竟:在這張圖裡,研究者詢問接受機器人治療的學生,你最喜歡機器人的哪一點?(這部分顯然是治療師要效法學習的),學生的回饋如下,

在治療的「歷程」部分,學生喜歡的部分有:

  • (9票)機器人常常會來找你「確認心情」(讓學生發現、意識到,多加留意自己情緒的變化,自己也可以為此療效多付出一點心力)
  • (7票)同理心(機器人說話感覺跟真人很像)
  • (12票)機器人教會我一些知識(關於情緒、人類常見的思考型態、認知謬誤等)
  • (3票)跟機器人聊天這件事(雖然我知道他是機器人,回應很有限,但有時候他很幽默)

在治療的「內容」部分,學生喜歡的部分有:

  • (7票)影音教材
  • (3票)遊戲
  • (2票)機器人提供的建議
  • (1票)機器人依據情緒紀錄做出來的圖表

「就在身邊」這四個字,大概是AI最難以忽視的強項了(畢竟心理師不是永遠都在個案身邊)。而在治療內容方面,透過影音、遊戲這種形式的衛教方式,顯然也是多數個案更有動機去體驗或學習的。

反過來的資訊也很有意思,在這張圖裡,研究者詢問接受機器人治療的學生,你最「不」喜歡機器人的哪一點?

在治療的「歷程」部分,學生不喜歡的部分有:

  • (10票)不照機器人指示回答的時候,機器人會很困惑,然後它自己接話的時候,換我們很困惑(很多時候機器人會提供回應的選項要我們選,但這些選項不一定是我們真正想選的)
  • (2票)鬼打牆(一直講一樣的話)

在治療的「技術問題」上,學生不喜歡的部分有:

  • (4票)機器人當機(很多時候他就自己講自己的)
  • (4票)鬼打牆(Looping)

在治療的「內容」部分,學生不喜歡的部分有:

  • (2票)我不喜歡用表情符號(像是這個😀😔😫)來呈現我的心情
  • (2票)機器人雖然會互動,但是互動太短了
  • (2票)衛教影片太長了

機器人無論是因為內容限制或者技術問題,無法與使用者「同步」,或者一直鬼打牆這件事情,對於使用上是明顯的阻礙。

機器人治療師的前輩

事實上,用機器人來作為心理治療,已經不是新鮮事了。一位在牛津從事臨床心理研究的冰島人Helgadottir,之前就曾設計了一個CBTpsych的機器人用來處理社交焦慮的困擾。(沒錯這也是用CBT作為機器人的靈魂)。

南加大的心理治療系統Ellie,使用AI以及VR來打破人機界限。一開始,這系統主要專注於創傷的心理治療(主要贊助者是美軍),後來延伸到其他疾病的研究。計畫主持人Albert Skip Rizzo更曾誇下海口說,Ellie未來要「將臨床心理學哭天喊地地拽進21世紀」。

而再往前追溯到60年代,MIT研究人機互動的工程師也曾用幾千行程式碼做出一個心理治療程式網頁ELIZA。Eliza的設計是有點模仿古早時代的心理治療師的風格(網站上寫著,Eliza是一位個案中心主義的治療師,Rogerian psychotherapist)。她不直接回答問題,而是轉述你輸入的話,引導你繼續多說。剛剛簡單試用了一下Eliza:

> Hello, I am Eliza.(電腦:你好,我是Eliza。)

* nice to meet you(我:很高興認識你。)

> We were discussing you, not me.(電腦:我們在討論的是「你」,不是我。)

* i feel depressed.(我:我好憂鬱。)

> Tell me more about such feelings. (電腦:多告訴我一點,那樣的感覺是...)

* low mood, poor sleep, no energy.(我:情緒低落、睡不好、沒精神。)

> Are you saying no just to be negative? (電腦:你剛剛說「no」,是一種負面嗎?)

* i feel so negative.(我:我感覺很負面。)

> Do you often feel so negative? (電腦:你常常感覺負面嗎?)

* yes(我:是的。)

> I see. (電腦:我知道了。)

* what!? XDDDD(我:什麼啦!? XDDD)

> Have you asked anyone else?(電腦:你有問過其他人嗎?)

AI與心理治療的攜手想像

成見少,但「情感層面」的同理心還要加強。

與擁有「人心」的人類治療師比,機器人的成見、刻板印象、反移情應該會少很多。因此,AI可能更適合用來作為「標準化的」、「探索性的」工具,像是一些結構化的初步評估或者資料搜集。(不過,似乎也得留意在輸入AI的「智慧」時,人類的成見與刻板印象也可能一起不小心灌進去,這樣機器人就是不帶成見的運作人類的成見了)