【一時】Google巨擘沒你想像中高傲、比爾.蓋茨誤解了哈拉瑞

【一時】Google巨擘沒你想像中高傲、比爾.蓋茨誤解了哈拉瑞
Photo Credit: Eduardo Munoz / Reuters / 達志影像

我們想讓你知道的是

這個時代,複雜曖昧,全球知名的歷史學家兼思想家.哈拉瑞(Yuval Noah Harari)的新著《21世紀的21堂課》(21 Lessons for the 21st Century),筆鋒既狠且猛,當中的重點與得失是什麼?給我們有怎樣的啟示?就此作者加以剖析。

當然,國際關係只是議題之一,蓋茨亦談及科技,強調不同意書中那句「(擁有)資料將取代土地和機器,成為區分富人和其他人的最重要資產」,認為土地永遠佔有重要地位。

無論如何,蓋茨跟哈拉瑞不同,他對未來保持樂觀的態度,是非常正確的大方向。接下來我們重點談論的,正是科技趨勢,這才是最備受爭議的層面。

將來人類受演算法「入侵、擺布」,有如此嚴重嗎?

Screen_Shot_2018-08-29_at_3_58_16_PM
Photo Credit: Random House Youtube截圖

新書中,哈拉瑞很可能「不經意」高估了人工智能帶來全面的威脅,如果說憂慮失業潮尚且說得過去,但是,人們未來的生活可能受盡演算法擺布,真的嗎?可能性有多大?僅在這點上,似乎,哈拉瑞令人感覺其危言聳聽,或換溫和一點的說法,他很可能「過慮」了,不管是否語氣稍重,接下來筆者會為此加以說明(補充:哈拉瑞在9月14日跟Terrence McNally對談時指,他有意寫得悲觀一點,以「平衡」全球可能過分樂觀的輿論)。

為免誤解哈拉瑞的意思,筆者特意重溫一次他8月底接受半島電視台訪問,期間他談及新書內容,再次強調一種危機感,指將來演算法確有可能像電腦病毒入侵主機一般,隨時入侵人們的各種抉擇。

實際上,哈拉瑞口中的極端情形若要發生,筆者評估須具備兩大情況:

  1. 即使AI科技未達「強人工智能」(Strong AI,可稱作通用人工智能)水平,但出現一個不受政權、國界限制的巨企,屆時壟斷了「全球所有AI頂尖技術」,把所有成熟的「弱人工智能」(Weak AI)整合運用,而剛好那位企業家大權在握,剛好又是位心術不正之人,處事完全妄顧他人福祉,設法躲過一切監察,任意進行不同計畫(另一類似情況是:政府操控該企業)。
  2. 就是「強人工智能」終於被研發成功,全球各國政府或企業手握技術,並擁有大量數據,只要主管一聲令下,智能機器自然透過更強的「深度學習」找出方法辦妥,屆時大眾不只無力抵抗,甚或是受到操弄依然不知不覺。

雖然上述情況未至於荒誕離奇,然而要有足夠條件又在20至30年內出現,可能性並不那麼大。如同第一種情況所述。

哈拉瑞的擔憂有一定因由,他的思維方向,主要是把目前陸續發生的「科技不良徵兆」,設想它嚴重十倍至百倍進行推演。例如,現在facebook可以與廣告商合作,安排大量廣告影響我們直覺,使我們購買更多產品;或分析用戶點撃某類網頁次數,推估他們一些生活細節,進行各類商業用途(甚或可能用在政治用途);或在政治選舉期間,演算法可以顯示更多貓貓影片,刻意令人分神,少去關注社會大事,乃至一面倒看單邊的政治宣傳。

按這樣的模式發展下去,不同干預人們抉擇的做法,可塑性只會愈來愈多樣化,將來,大企業或政府會否因為更先進的智能手錶,快速又準確知道我們每人的身體狀況?對我們的私隱和保險有何影響?

他又提出另一憂慮,當有朝一日,檢測人體狀態的生物科技結合演化法,這樣的科技普及後,擁有權勢人士假如能夠取得大量公眾數據,他們會否有辦法多方面又深入地動搖我們的抉擇?透過大量資訊挑動我們的情緒,仇恨我們的政敵?至少一部分人開始覺察,在民主選舉中,群眾訴諸於情緒看來多於理性。

儘管,他的憂慮我們可以理解,只是,哈拉瑞未有評估發生的時間,也沒有具體分析如何做到,他旨在述說一種「可能性」;但這樣的可能性忽視了實踐的難度,除非全球民主自由制度完全崩潰,否則難出現壟斷所有權力的政體與企業,誰真能蒙騙所有人繞過一切反抗而達成?讓人相當懷疑。說到底,我們最後亦能明白,驅使他提出警世反思的主因,並非他不知道現在比1938年、1968年的世界都要好,而是他永遠擔憂人類的愚蠢:

「你永遠不應低估人類的愚蠢。人類的愚蠢是歷史上最重要的力量之一。」

("You should never underestimate human stupidity. It is one of the most powerful forces that shape history.")

實情,連全球人工智能專家也難料發展趨勢

maxresdefault-8
Photo Credit: Serious Science Youtube截圖

如果我們沒有思想「偏食」的壞習慣,除了細讀哈拉瑞的著作,同時兼讀鐵馬克撰寫的《Life 3.0》、安德魯.麥克費(Andrew McAfee)、艾瑞克.布林優夫森(Erik Brynjolfsson)的《機器、平台、群眾》(Machine Platform Crowd),以及李開復的《AI世界》(AI SuperPowers),對於科技發展帶來的憂患,相信未至於那麼悲觀。

鐵馬克、李開復的意見特別值得參考,他們都比較清楚目前人工智能技術到了怎樣的地步。

就好像鐵馬克,大約三年前,他主辦了一次工智能能研討會,邀請了全球圈內許多重要人物,除非他提供第一手資訊,否則謝絕一切傳媒採訪,因為他長年受夠了那些一知半解的記者,不斷誇飾人工智能威脅論,屢次借霍金傳播恐懼:

「『多少年以後,我們有過半的機率可以讓人工智慧達到人類的水準?』對人工智慧專家進行這樣的調查,已經多到數不清,而這些調查報告的結論都是:世界上最頂尖的科學家全都眾說紛紜,也就是沒人知道答案是什麼。我們在波多黎各人工智慧研討會上做調查就顯示,大家推測的中位數是2055年,但是也不乏有些專家把時間點擺在好幾百年以後。

另一種相關的迷思,是認為人工智慧再發展沒幾年就會進展到令人害怕的程度。實情則是,大多數檯面上的人物都認為,超越人類的通用人工智慧起碼是好幾十年以後的事情,而且重點在既然我們不能百分之百肯定超人工智慧不會在這個世紀問世,最妥當的辦法就是,從現在開始未雨綢繆進行安全性研究。

⋯⋯很多安全性研究都很困難,需要花幾十年的功夫才有辦法克服,最步步為營的做法,就是從現在開始提前準備,以免哪天晚上一群暢飲紅牛能量飲品的程式設計師突發奇想,推出了人類水準的通用人工智慧,讓我們措手不及就麻煩了。」