「AI自創語言」的標題黨和恐懼,只會令我們忽略更迫切的科技問題

「AI自創語言」的標題黨和恐懼,只會令我們忽略更迫切的科技問題
Photo Credit: Scott Lynch, CC BY-SA 2.0
我們想讓你知道的是

人工智能嚇到Facebook煞停研究?這類標題黨文章不會消失,但讀者可以避免「中伏」,關注其他更重要的科技問題。

唸給你聽
powered by Cyberon

今年6月中,我讀到一篇說有人工智能發展出非人類語言的文章,於是翻查內文提到的研究,發現那是標題黨,也見到一些誇張報道。不過當時見沒太多人在Facebook分享這新聞,就沒有寫,畢竟人工智能非我專長,要了解得花太多時間(一字記之曰懶)。

於是我後悔了。近日外國一些大媒體陸續發現這份來自Facebook人工智能研究小組(FAIR)的研究,然後紛紛變成標題黨,煽動讀者對人工智能恐懼。這是破解流言的永恆兩難︰沒人傳的流言破解後也沒有人看,而真相總是追不上多人傳的流言。

近來跟「人工智能創造語言」有關並引起媒體關注的研究最少有三個,由於語言使用、翻譯等是人工智能的重要領域,未來肯定會有更多類似研究,相信也會有更多標題黨,所以還是先寫清楚比較好。

Google翻譯AI發明了中介語言?

三項研究中,最早出現的一個跟Google翻譯有關。2016年9月,Google翻譯改用新系統,稱為Google神經機器翻譯(Google Neural Machine Translation, GNMT)。從數以百萬計的例子中學習,GNMT能大幅提升其翻譯質素。然而Google表示,把系統應用到Google翻譯所支援的103種語言是一個巨大挑戰。

同年11月,Google在其研究網誌介紹其團隊如何解決這個難題,並把解決方案應用到Google翻譯。研究人員擴展了GNMT,令單一系統可以翻譯多種語言,更實現所謂的「零數據翻譯」(zero-shot translation)——系統未曾明確學習翻譯兩種語言下,仍然可以成功翻譯。

聽起來好像很神奇,以下用Google提供的例子解說︰假設系統只需要處理三種語言——日語、韓語及英語,而研究人員先訓練其多語言GNMT系統學習雙向的日英、韓英翻譯,系統會把翻譯這四對語言(日英、英日、韓英、英韓)的參數共同儲存,從而可以把「翻譯知識」轉移,即使系統未受過日韓翻譯訓練,仍然可以把日語翻譯成韓語(反之亦然)。

image01
Image Credit: Google

文章指出,實現「零數據翻譯」帶出另一重要問題︰系統是否學會了一種「中介語言」(interlingua),可以獨立於各種語言來代表語句的意義?研究人員分析數據後認為,這個神經網絡會把句子的語意編碼,而非單純記住不同語言的詞語配對,所以他們視這為「中介語言」存在的跡象。

這固然是一項重要的研究發現,不過有媒體就將之誇大成「電腦把字詞及概念配對」或「人工智能創造了一種通用語言」。實際上,這種「中介語言」是用來描述翻譯對象語言的特質,讓系統處理多種語言之間的翻譯,仍然把每種語言的數據分開處理,只是不同語言意思相近的句子會放在相近位置,而非系統創造了一種新語言。

學習溝通的人工智能

第二項容易引起誤解的研究,在今年3月中由非牟利人工智能研究公司OpenAI公開。

研究的兩名作者Igor Mordatch及Pieter Abbeel指出,透過在語料庫中尋找統計模式,機器學習在處理自然語言上有顯著進展,包括機械翻譯、對答以及情緒分析等。然而兩人認為要讓程序有智慧地跟人類互動,單靠統計模式並不足夠,因此他們研究能夠讓AI在合作達成目標期間,創造出有基礙的組合性語言(grounded compositional language)。

「有基礎」是指語言中的字詞直接跟使用者的經驗連結,例如「樹」這個字跟樹的影像、接觸樹的經驗關聯。「組合性」則是指使用者可以把語言中不同字詞組合成句子,以表達特定意念,例如把「我」、「喜歡」及「貓」三個詞語,結合成句子「我喜歡貓」。

他們於是建立一個實驗環境,三個AI(分別以紅、藍、綠色代表)「活」在一個簡單的平面世界,這個世界有三個分別為紅、藍、綠色的地標。每個均可以做三件事︰移向某個地方、把「視線」指往某個方向,以及跟其他AI溝通(如下圖所示)。

multi_agent_comm_1-471605aa1baa2c1459337
Image Credit: Open AI

在這個環境中,AI都是以「單熱向量」(one-hot vector,只有一個「1」其他均為「0」的向量)來溝通,為方便理解,作者把這些向量加上「前往」、「望向」及「不做任何事」等標籤。每個AI採取行動前,都會先觀察其他AI之前的通訊,以及所有物件(三名AI及三個地標)的位置。

實驗中,每個AI都被指派一個只有自己知道的目標,這些目標可能是要求其他AI前往某個地方,由於別的AI無法得知這個目標,從而促使AI互相溝通。實驗中研究人員比較這些AI在各種設定下的分別,例如可以使用語言溝通、不可使用語言溝通、只可以使用非語言溝通(例如調整視線)等。

簡單來說,研究人員透過設計這個多參與者環境,令AI在未有接觸人類語言的情況下,自行產生一套有基礎的組合性語言。受到實驗環境所限,這套抽象語言非常簡陋,Mordatch和Abbeel希望未來在實驗中容許更多行動,引發出語法更複雜、更多詞匯的語言,他們亦想讓AI在實驗過程中接觸人類語言。

據說令Facebook害怕的研究

最後一項,則是文章最初提及的研究。整件事就是FAIR的研究員讓兩個AI學習談判,並設定好談判目標和分數,讓它們對話。

這項研究取得不錯成果,程式學會了一些談判技巧,例如起初偽裝對一些無價值的物品有興趣,再於談判期間「讓步」放棄,Facebook介紹此研究的網誌提到,這項技巧並非預先編寫好,而是程式在嘗試達成目標時發現的方法。

該網誌最後亦指出,其中一個研究模型令程式發展出自己的語言來談判,跟人類有別,然而研究員的目標是建立可以跟人類溝通的程式,所以改用其他方法來得到他們想要的結果。

不過研究到了傳媒手上,就變成「AI叛變!聊天機械人發展出自己語言 嚇到fb煞停」(當然誇張報道的不僅是《蘋果日報》)︰

由於已有同事在本網撰文解釋,我就不再重複。

如何避免受標題黨誤導

除了都跟人工智能和語言有關外,三項研究的共通點是其公司——分別是Google、Open AI和Facebook——都有撰寫文章解說其研究。除了專家外,相信沒有太多人會讀人工智能的論文,這些解說文章——就如科研的大學新聞稿一樣——是給傳媒和有興趣的大眾了解其研究。

不幸的是,媒體往往為追求點擊率而過度簡化研究,甚至曲解和誇大其內容,透過誤導的標題引發驚訝、恐懼等有利散播文章的情緒。一如所有流言,事後才澄清作用有限,引起的恐懼亦無法完全消除。

對此我有一點建議︰分享這類「令人驚呆了」的新聞前,請先追尋資訊源頭,細讀一遍相關解說文章,甚至讀一點論文的簡介部份,知道研究人員大概在做甚麼(大概就好,一般人不可能透徹理解)。

這樣太麻煩了?《Geek Time》的Gedalyah Reback有另一個建議︰

閱讀科技新聞時,永遠假設沒有任何接近天網(Skynet)或創造Matrix的機器。要建造這些東西,人類還需多年甚至數十年時間,在這段期間,當看到有人宣稱電腦程式在沒有指引下做到一些事情時,永遠保持健康的懷疑。更有可能的是程式做了一些程式員沒發現自己編寫了的事情,或者解釋遠遠比表面看來簡單。

這些被煽動出來對人工智能的恐懼,無助令我們更了解人工智能發展,只會讓人忽略資訊科技領域中更嚴重和迫切的問題,例如網絡缺乏私隱、企業操控我們的數據、政治勢力借演算法左右民意、人工智能取代生產或導致大量失業、國家資助的數碼恐襲,以至假新聞越來越逼真等等。

相關文章︰

資料來源︰

核稿編輯︰王陽翎

或許你會想看
更多『評論』文章 更多『科技』文章 更多『Kayue』文章
Loader