「AI自創語言」的標題黨和恐懼,只會令我們忽略更迫切的科技問題

「AI自創語言」的標題黨和恐懼,只會令我們忽略更迫切的科技問題
Photo Credit: Scott Lynch, CC BY-SA 2.0

我們想讓你知道的是

人工智慧嚇到Facebook煞停研究?這類標題黨文章不會消失,但讀者可以避免「中招」,關注其他更重要的科技問題。

今年6月中,我讀到一篇說有人工智慧發展出非人類語言的文章,於是翻查內文提到的研究,發現那是標題黨,也見到一些誇張報導。不過當時見沒太多人在Facebook分享這新聞,就沒有寫,畢竟人工智慧非我專長,要了解得花太多時間(一字記之曰懶)。

於是我後悔了。近日外國一些大媒體陸續發現這份來自Facebook人工智慧研究小組(FAIR)的研究,然後紛紛變成標題黨,煽動讀者對人工智慧恐懼。這是破解流言的永恆兩難︰沒人傳的流言破解後也沒有人看,而真相總是追不上多人傳的流言。

近來跟「人工智慧創造語言」有關並引起媒體關注的研究最少有三個,由於語言使用、翻譯等是人工智慧的重要領域,未來肯定會有更多類似研究,相信也會有更多標題黨,所以還是先寫清楚比較好。

Google翻譯AI發明了中介語言?

三項研究中,最早出現的一個跟Google翻譯有關。2016年9月,Google翻譯改用新系統,稱為Google神經機器翻譯(Google Neural Machine Translation, GNMT)。從數以百萬計的例子中學習,GNMT能大幅提升其翻譯素質。然而Google表示,把系統應用到Google翻譯所支援的103種語言是一個巨大挑戰。

同年11月,Google在其研究網誌介紹其團隊如何解決這個難題,並把解決方案應用到Google翻譯。研究人員擴展了GNMT,令單一系統可以翻譯多種語言,更實現所謂的「零數據翻譯」(zero-shot translation)——系統未曾明確學習翻譯兩種語言下,仍然可以成功翻譯。

聽起來好像很神奇,以下用Google提供的例子解說︰假設系統只需要處理三種語言——日語、韓語及英語,而研究人員先訓練其多語言GNMT系統學習雙向的日英、韓英翻譯,系統會把翻譯這四對語言(日英、英日、韓英、英韓)的參數共同儲存,從而可以把「翻譯知識」轉移,即使系統未受過日韓翻譯訓練,仍然可以把日語翻譯成韓語(反之亦然)。

image01
Image Credit: Google

文章指出,實現「零數據翻譯」帶出另一重要問題︰系統是否學會了一種「中介語言」(interlingua),可以獨立於各種語言來代表語句的意義?研究人員分析數據後認為,這個神經網絡會把句子的語意編碼,而非單純記住不同語言的詞語配對,所以他們視這為「中介語言」存在的跡象。

這固然是一項重要的研究發現,不過有媒體就將之誇大成「電腦把字詞及概念配對」或「人工智慧創造了一種通用語言」。實際上,這種「中介語言」是用來描述翻譯對象語言的特質,讓系統處理多種語言之間的翻譯,仍然把每種語言的數據分開處理,只是不同語言意思相近的句子會放在相近位置,而非系統創造了一種新語言。

學習溝通的人工智慧

第二項容易引起誤解的研究,在今年3月中由非營利人工智慧研究公司OpenAI公開。

研究的兩名作者Igor Mordatch及Pieter Abbeel指出,透過在語料庫中尋找統計模式,機器學習在處理自然語言上有顯著進展,包括機器翻譯、對答以及情緒分析等。然而兩人認為要讓程序有智慧地跟人類互動,單靠統計模式並不足夠,因此他們研究能夠讓AI在合作達成目標期間,創造出有基礎的組合性語言(grounded compositional language)。

「有基礎」是指語言中的字詞直接跟使用者的經驗連結,例如「樹」這個字跟樹的影像、接觸樹的經驗關聯。「組合性」則是指使用者可以把語言中不同字詞組合成句子,以表達特定意念,例如把「我」、「喜歡」及「貓」三個詞語,結合成句子「我喜歡貓」。

他們於是建立一個實驗環境,三個AI(分別以紅、藍、綠色代表)「活」在一個簡單的平面世界,這個世界有三個分別為紅、藍、綠色的地標。每個均可以做三件事︰移向某個地方、把「視線」指往某個方向,以及跟其他AI溝通(如下圖所示)。

multi_agent_comm_1-471605aa1baa2c1459337
Image Credit: Open AI

在這個環境中,AI都是以「單熱向量」(one-hot vector,只有一個「1」其他均為「0」的向量)來溝通,為方便理解,作者把這些向量加上「前往」、「望向」及「不做任何事」等標籤。每個AI採取行動前,都會先觀察其他AI之前的通訊,以及所有物件(三名AI及三個地標)的位置。

實驗中,每個AI都被指派一個只有自己知道的目標,這些目標可能是要求其他AI前往某個地方,由於別的AI無法得知這個目標,從而促使AI互相溝通。實驗中研究人員比較這些AI在各種設定下的分別,例如可以使用語言溝通、不可使用語言溝通、只可以使用非語言溝通(例如調整視線)等。

簡單來說,研究人員透過設計這個多參與者環境,令AI在沒有接觸人類語言的情況下,自行產生一套有基礎的組合性語言。受到實驗環境所限,這套抽象語言非常簡陋,Mordatch和Abbeel希望未來在實驗中容許更多行動,引發出語法更複雜、更多詞匯的語言,他們亦想讓AI在實驗過程中接觸人類語言。

據說令Facebook害怕的研究

最後一項,則是文章最初提及的研究。整件事就是FAIR的研究員讓兩個AI學習談判,並設定好談判目標和分數,讓它們對話。

這項研究取得不錯成果,程式學會了一些談判技巧,例如起初偽裝對一些無價值的物品有興趣,再於談判期間「讓步」放棄,Facebook介紹此研究的網誌提到,這項技巧並非預先編寫好,而是程式在嘗試達成目標時發現的方法。