「AI自創語言」的標題黨和恐懼,只會令我們忽略更迫切的科技問題

「AI自創語言」的標題黨和恐懼,只會令我們忽略更迫切的科技問題
Photo Credit: Scott Lynch, CC BY-SA 2.0

我們想讓你知道的是

人工智能嚇到Facebook煞停研究?這類標題黨文章不會消失,但讀者可以避免「中伏」,關注其他更重要的科技問題。

該網誌最後亦指出,其中一個研究模型令程式發展出自己的語言來談判,跟人類有別,然而研究員的目標是建立可以跟人類溝通的程式,所以改用其他方法來得到他們想要的結果。

不過研究到了傳媒手上,就變成「AI叛變!聊天機械人發展出自己語言 嚇到fb煞停」(當然誇張報道的不僅是《蘋果日報》)︰

Apple_daily_facebook
《蘋果日報》Facebook截圖

由於已有同事在本網撰文解釋,我就不再重複。

如何避免受標題黨誤導

除了都跟人工智能和語言有關外,三項研究的共通點是其公司——分別是Google、Open AI和Facebook——都有撰寫文章解說其研究。除了專家外,相信沒有太多人會讀人工智能的論文,這些解說文章——就如科研的大學新聞稿一樣——是給傳媒和有興趣的大眾了解其研究。

不幸的是,媒體往往為追求點擊率而過度簡化研究,甚至曲解和誇大其內容,透過誤導的標題引發驚訝、恐懼等有利散播文章的情緒。一如所有流言,事後才澄清作用有限,引起的恐懼亦無法完全消除。

對此我有一點建議︰分享這類「令人驚呆了」的新聞前,請先追尋資訊源頭,細讀一遍相關解說文章,甚至讀一點論文的簡介部份,知道研究人員大概在做甚麼(大概就好,一般人不可能透徹理解)。

這樣太麻煩了?《Geek Time》的Gedalyah Reback有另一個建議︰

閱讀科技新聞時,永遠假設沒有任何接近天網(Skynet)或創造Matrix的機器。要建造這些東西,人類還需多年甚至數十年時間,在這段期間,當看到有人宣稱電腦程式在沒有指引下做到一些事情時,永遠保持健康的懷疑。更有可能的是程式做了一些程式員沒發現自己編寫了的事情,或者解釋遠遠比表面看來簡單。

這些被煽動出來對人工智能的恐懼,無助令我們更了解人工智能發展,只會讓人忽略資訊科技領域中更嚴重和迫切的問題,例如網絡缺乏私隱、企業操控我們的數據、政治勢力借演算法左右民意、人工智能取代生產或導致大量失業、國家資助的數碼恐襲,以至假新聞越來越逼真等等。

相關文章︰

資料來源︰

核稿編輯︰王陽翎