京都大學正在開發「能理解人類幽默感細微差異」的AI系統,訓練機器人在正確時機發笑

京都大學正在開發「能理解人類幽默感細微差異」的AI系統,訓練機器人在正確時機發笑
Photo Credit: AP / 達志影像

我們想讓你知道的是

牛津大學網路研究院教授Sandra Wachter表示,人們必須謹記機器人或演算法是永遠沒辦法真正理解人類,也不會理解笑聲的真實含義,「他們沒有知覺能力,但他們卻能厲害到讓你相信他們瞭解一切事物。」

文:饒珮琪(Peichi Jao)

日本京都大學正嘗試開發能一款人工智慧系統,使機器人在與人類互動中,能根據對話決定是否發笑並選擇合適的笑法,研究團隊期望此笑聲模型的植入,能作為未來機器人展現性格的開端,即使可能還要再等上20年以上才能達成。

據《衛報》指出,一個來自日本京都大學的研究團隊正在開發一款「能理解人類幽默感細微差異」的AI系統,能在與人互動中,於適當的時機點笑以增添互動感,期望藉此增進人類與智能系統間的自然對話。

教導機器人理解笑意並養成同理心

根據《耶路撒冷郵報》及《Cosmos magazine》報導,該研究領導人Koji Inoue博士表示,談話本身是涉及不同模式的交流,而不僅僅是正確的回應就足夠;對話式人工智慧中最重要的功能即是同理心,因此認定機器人能與用戶共同歡笑是展現同理的指標,而這是文本訊息的聊天機器人無法做到的事。

然而,欲使機器人展現笑容,需要確保其對談話有高度的理解;因此將笑意的指令植入談話機器人的既有系統不是件容易的事。

以人類互動紀錄數據訓練AI系統

綜合《耶路撒冷郵報》報導,研究中使用的共同發笑模型(shared-laughter model)有三個要點:機器人需能辨認笑聲、能決定是否要笑或沉默、能選擇合適的笑法;如此一來,當人類發出笑聲的同時,人工智慧能給予適當且具同理心的回應。

為取得足夠數據以分析機器人與用戶共同發笑的時機點,研究團隊設計了數個快速約會(speed dating)的對話情境,用戶們會與機器人Erica分別進行約10至15分鐘的互動,而Erica的言行舉止則是被其他四名女性輪流遠端操控;最終總共收集了80組人機互動的對話紀錄。

多元觀點 等你解鎖
付費加入TNL+會員,
獨家評論分析、資訊圖表立刻看
首月一元插圖
TNL+ 首月體驗價 1 元,
加贈 LiTV 首月免費(見活動方案)