AI威脅人類安全「三大立場」:Nick Bostrom、Grady Booch、Sam Harris

AI威脅人類安全「三大立場」:Nick Bostrom、Grady Booch、Sam Harris
Photo Credit: Ted / Reuters
我們想讓你知道的是

我們沒必要苛求任何人能夠精準預測未來,討論人工智慧未來會否威脅人類安全,它的意義在於中性而理智的「風險評估」(Risk Assessment),從探索可能性中制訂審慎的做法,並不是純粹虛談樂觀與悲觀,或製造不必要的恐懼。

唸給你聽
powered by Cyberon
AlphaGo戰勝人類圍棋冠軍,比2012年評估「快了一半」時間達成

柯潔一如眾人所料再次敗給AlphaGo,雖然這屬於棋類遊戲的比試,但意義深遠。原本在2012年,由於稱為「禪」系列的圍棋程式使用「蒙地卡羅樹搜尋」(Monte Carlo Tree Search)運算方式,已達到業餘六段的級數,當時有人粗略評估大約10年後(2022年),人工智慧(AI)電腦便可打敗人類圍棋世界冠軍,現在我們知道,時間比原先預計的縮短了整整一半(快了5年)。

即使AlphaGo只屬於「弱人工智慧」(Weak AI),可是無論在遊戲上抑或衝擊職場,已叫人無法輕視。亦因為短期內我們目睹「弱人工智慧」的威力,更觸發不少人提早思考長遠人工智慧對人類的不同影響。

西蒙奈特(Tom Simonite):

「如果現在是人工智慧的春天,那人工智慧的夏天何時到來?」

這是《麻省理工科技評論》(MIT Techonology Review)主編詢問領導Google人工智慧研究John Giannadrea的問題。

這個問題一點也不好答,正如我們不久前才知道預估人工智慧戰勝世界冠軍的時間,也有相當的落差。如果說更諷刺的例子,像羅素(Stuart Russell)舉1933年9月11日物理學家拉塞福(Ernest Rutherford)自信表示:「預期我們將有改變原子的能量,那是癡人說夢。」結果相隔一天,9月12日物理學家西拉德(Leo Szilard)成功藉中子誘發核能連鎖反應。

我們沒必要苛求任何人能夠精準預測未來,討論人工智慧未來會否威脅人類安全,它的意義在於中性而理智的「風險評估」(Risk Assessment),從探索可能性中制訂審慎的做法,並不是純粹虛談樂觀與悲觀,或製造不必要的恐懼。不過,這是個非常龐大又不好應付的話題,你不但要與時並進掌握AI當下運作的基本原理與智慧程度,也要前瞻預估它未來的「可能性」,同時又要對人類大腦有一定認識,以及對道德與生命意義有所思考。或許,只要我們不苛求「每一點」都有專家級的深入認識,概括掌握大方向亦未嘗不可。

立場一:Nick Bostrom戒懼「強人工智慧」

明顯戒懼人工智慧的人物,撰寫《超智慧(Super-Intelligence)》一書的尼克.伯斯特隆姆(Nick Bostrom)可說不得不提。先說清楚,他有把「超智慧」(superintelligence)一詞作出區分,最廣義而言,他只反映「某一方面」人類無法做到的智慧,譬如蝙蝠轉譯聲納訊號也是一種「超智慧」,這還算不上要戒慎恐懼。他強調的是「速度超智慧」(Speed superintelligence):

「速度超智慧最簡單的例子,就是在快速硬體上運作的全腦仿真。一個比生物腦快上一萬倍運作的仿真,可以在幾秒鐘內讀完一本書,並在一個下午寫完博士論文。如果速度可以快上一百萬倍,它就可以在一個工作日內完成整整一千年的智慧工作。」

這樣的層次,才比較接近許多人談論「強人工智慧」(Strong AI)或「超級人工智慧」(Super AI)。伯斯特隆姆認為,如果對比人類與黑猩猩的大腦,也只是結構上複雜程度有「部分」差異,但這一部分差異足以影響人類與黑猩猩「所能做到甚麼」,相當於人工智慧有一天達到「速度超智慧」的境界,它的智慧在運算與達到目標的能力遠非人類所企及,先別論它有沒有某種自主的動機刻意傷害人類;難道,你不會擔心它為達到「以為人類想要」的目標,過程中不惜傷害人類嗎?就是為求目的不擇手段的情況發生,而它擁有如此強大的力量,那怎麼辦?正如人類也「能夠」找出網路安全漏洞,從而進行各種攻擊。

伯斯特隆姆的說法並不新鮮,而且有不少問題

最後,他提出兩種方向,除了製訂一些安全的設備規範人工智慧電腦,以保障人類安全之外,就是日後盡可能讓人工智慧在達成目標「X」之前,確保它完整地掌握與目標相關的價值與意義,而非只求用一切方法達到目標則可。另外,就是盡可能讓人工智慧學習人類的道德價值/思考。

其實,他說的方向萬變不離其宗,如數學家維納(Norbert Wiener)在1960年所言:「如果無法有效干預執行特定任務的機器,那最好確定當初交付它的目標是我們想要的。」

也像羅素以往提及人工智慧安全問題的三項重要原則(雖然略嫌簡化):

  • 機器的任務目標必須為實現人類的價值觀
  • 機器不能完全確知(或斷定)人類真正的價值觀為何
  • 機器必須藉由觀察人類的選擇來學習人類價值觀(確保掌握人類的多元價值)

只是,筆者認為伯斯特隆姆未能自圓其說的地方是,如果人工智慧真的達到「速度超智慧」的水平,你如何肯定它必「不具備」一定程度的自我意識(self-cognition)?又,你如何肯定它「不能夠」違反人類希望它遵守的原則/規範?如果它欠缺上述兩種能力,還算不算達到「速度超智慧」的水平?已別說人們依然爭論不休的「道德現實主義」(moral realism)問題了。

立場二:Grady Booch認為不要杞人憂天,人工智慧技術會讓人類活得更好

好了,這個問題上,站在另一個極端的人是IBM Watson/M的首席科學家格雷迪(Grady Booch)。他反駁伯斯特隆姆危言聳聽般的言論,令人過於恐懼人工智慧的威脅,說法是杞人憂天。他說以往我們因為技術進步而心生「不必要」恐懼的例子太多,無論是汽車抑或電話剛被發明出來時,人們都想像許多恐懼。

在格雷迪眼中,人工智慧是強大的好助手,應把它的意義理解為有助人類「擴展智慧」(Augmented Intelligence),而不是對人們充滿危險的智慧,他認為關鍵在於「全知並非全能」,不要被《駭客任務》(Matrix)、《魔鬼終結者》(The Terminator)、《西方極樂園》(Westworld)的電影誤導,認為人工智慧將會變成「無所不能」的機器控制世界任何一處,因為我們從一開始,就不是在建造可以控制天氣、操控人類言行的人工智慧,如果是這樣的話,我們便會發現它正在與人類競爭,然後他說笑道:不要告訴Siri——我們可以隨時拔掉電源。大概,他的說法是指我們屆時會有方法對付「它們」。

實際上,格雷迪的駁斥仍未夠力,他似乎不斷把目前「弱人工智慧」的所有優點提出,正如人工智慧除了下棋之外,在醫學、交通乃至各種生活科技有非常大的幫助,可是,他繞開了問題的核心,依然未夠對準學者提出的假設疑難:假設「強人工智慧/速度人工智慧」真的出現呢?屆時人類生活已極度跟科技與網路融合,問題出現時你才開始制止它們,真的能夠嗎?

立場三:Sam Harris認為要審慎評估風險,可預早以AI提升人腦智慧作準備

最終,筆者目前認為神經科學家山姆.哈里斯(Sam Harris)的說法比較中道而穩妥。他指出的重點在於,我們還是要及早為人工智慧作出應變,不在於數十年之內「強人工智慧」是否出現,再保守評估,也不能否認原理上它「終有一天」可以出現,不管是你孫兒的年代,或你孫兒的孫兒的年代,孫兒的孫兒的孫兒的年代,終於有一代人要面對這個問題,無論你猜想摩爾定律甚麼時候終結,電腦運算提升速度比例減緩了,依然要設想「強人工智慧」出現的時候,我們應該怎麼做。

他認為正因為人工智慧的結構跟我們不一樣,不管你如何界定它有沒有意識,只要知道它能力可以愈來愈巨大:

「電子電路作用的速率比起生化作用快一百萬倍,所以這個機器思考應該比製造它的心智快一百萬倍。如果你設定讓它運行一星期, 他會執行人類等級的智慧要花兩萬年的工作,一週接著一週接著一週。」

所以,按照目前的發展過程,它的能力只會愈來愈巨大,我們不能永遠有信心足以理解它們,就此,哈里斯建議應該「首先」打造能夠與人腦縫接的人工智慧,做好提升人腦智慧的科技,繼而再穩步發展人工智慧技術。他的立場大概就是,世事並非只有兩相反的道路,要麼要完全終止研發人工智慧,要麼要任意讓人工智慧技術奔馳,中間還有很多可以做得更好的準備——如同另一種「曼哈頓計劃」。

筆者不敢斷言哈里斯的建議完全正確,但相比伯斯特隆姆與格雷迪的兩極立場,看來他較接近「中庸」的風險評估,而馬斯克(Elon Musk)創立的Neuralink公司,也循這種「中庸」做足準備。無論如何,這將會是未來10年、20年甚至數十年的重大議題,值得及早作思想準備。

延伸閱讀:

  1. 〈如果AlphaGo輸了給柯潔,我們才應該感到沮喪〉

核稿編輯:鄭家榆