機器人軍備競賽可能是一件好事?或許日內瓦公約該明訂禁止人類上戰場打仗

機器人軍備競賽可能是一件好事?或許日內瓦公約該明訂禁止人類上戰場打仗
Photo Credit: ShutterStock.com / 達志影像

我們想讓你知道的是

機器人軍隊的確會使發生戰爭的可能性變大,但它們也將改變戰爭的倫理。如果目標對象是其他機器人時,射殺或不射殺的抉擇難題就會變得容易得多。如果戰爭被簡化為一種競爭,看看誰可以摧毀最多,那麼為什麼這種競爭不是用來比較誰可以建造最多呢?

文:佩德羅.多明戈斯

軍人的工作比科學更難自動化,但同樣也會朝向自動化發展。機器人的主要用途,便是執行對於人類來說太過危險的事情,而戰爭就是涉及到危險的事務。

目前機器人已經應用於拆除炸彈的引信,而且無人駕駛飛機可以讓步兵排越過山嶺進行偵查。提供給卡車與機器騾(robotic mules,一種四腿機器人)所使用的自動駕駛技術,已經在開發測試中。不久之後,我們將需要決定機器人是否被允許能夠自己扣動扳機。

這樣做的理由,是我們想讓人類可以擺脫受到傷害,以及在快速移動、射擊或被射擊的情況下,遠程控制是不可行的。反對的理由是機器人無法理解道德的意義,因此不能託付給它們生死攸關的決定權。但是我們可以教導它們,只不過更深層次的問題,是我們自己是否已經準備好了。

我們不難說出一堆大道理,像是軍事的必要性、得失相稱(proportionality),以及保護平民百姓。但在機器人和具體行動之間仍有一個鴻溝存在,這就需要士兵的判斷做為橋梁。美國科幻作家艾西莫夫, 在他的科幻小說裡曾經制定了有名的機器人學(robotics)三大定律,實際上,當機器人嘗試應用它們時,這三大定律很快就陷入困境中,只能做為在他的科幻故事中讓人印象深刻的說明而已。

這些大道理通常都是矛盾的,如果不是自相矛盾,那麼它們就必須避免將所有不同色度的灰階變為非黑即白的兩色。例如:什麼時候軍事的必要性會比保護平民百姓更重要?這是一個沒有統一答案的問題,也沒有辦法可以編寫程式,讓電腦考量到所有可能發生的事情。然而機器學習提供了另一種選擇。

首先,教導機器人辨識相關的概念,舉例來說,提供平民百姓被保護與不被保護的情況資料集,武裝保全(armed response)是不是符合得失相稱,然後在涉及到這些概念的規則形式上,給予機器人一個行為守則,最後讓機器人透過觀察人類的行為,學會如何應用行為守則,好比士兵會在這種情況下開槍,而不是在那種情況下開槍。透過從這些例子進行歸納,機器人可以學習一種端對端(endto-end)的道德決策制定模型,就是一種大型的馬可夫邏輯網路形式。一旦機器人的決策與人類的決策達成一致,而且每次都像是一個人同意另一個人的意見時,這種訓練便宣告完成,這意謂著這種道德決策制定模型,已經準備好可以下載到成千上萬的機器人大腦中。機器人不像人類,它們不會在戰鬥中失去生命。如果一個機器人出現了故障,製造廠商會負責維修;如果機器人打錯了電話,那麼機器人的老師會負責導正它。

正如你可能已經猜到的,這種情況的主要問題是讓機器人透過觀察人類的行為來學習倫理道德,可能不是一個好的主意。當機器人看到人類的行為經常違背自己的道德原則時,它們是很容易被嚴重混淆。我們可以清除掉機器人的訓練資料,只包含那些倫理學家小組一致認同,軍人做出了正確決策的案例,同時小組成員還可以檢查和調整機器人的學後(post-learning)模型,直到滿意為止。不過這種一致認同可能很難達成,特別是如果小組成員的組成分子中,包含了它應該具備的各種不同類型的人員。

教導機器人學習倫理道德,若是用他們的邏輯思維,以及在沒有任何包袱的情況下,將會迫使我們重新審視自己的假設,並且釐清我們的矛盾。在這方面,正如同在許多其他領域一樣,機器學習的最大好處,可能最終不是機器學習到什麼,而是透過教導機器人的過程,我們學習到什麼。

另一個反對機器人軍隊的理由,因為擁有機器人軍隊,使得國與國之間太過於容易發動戰爭。但如果我們單方面放棄它們,這可能會讓我們在下一場戰爭中付出代價。不過透過聯合國和人權觀察組織(Human Rights Watch)的倡導,一種符合邏輯的反應是,建立一項禁止機器人作戰的條約,類似於1925 年在日內瓦議定書(Geneva Protocol)中,明訂禁止利用化學和生物武器作戰一樣。

但這忽略了一個關鍵性的區別,化學和生物武器的作戰,只會增加人類所遭受的痛苦,但機器人作戰卻可以大大減少人類的傷害。如果一場戰爭是由機器人來進行對戰,人類只是在指揮的位置上,就不會有人被殺害或受傷。或許如此一來,我們應該做的不是禁止機器人士兵,而是當我們已經做好萬全的準備時,取締人類士兵。

機器人軍隊的確會使發生戰爭的可能性變大,但它們也將改變戰爭的倫理。如果目標對象是其他機器人時,射殺或不射殺的抉擇難題就會變得容易得多。戰爭的現代觀點被視為是一種難以言喻的恐懼,只能做為最後不得已的手段,不過這種看法會被一種更細緻入微的戰爭觀點所取代,這種觀點視戰爭為一種肆無忌憚地恣意破壞,會導致各方面的貧困,而且最好避免產生,但並非是不惜一切代價都要避免的。而且如果戰爭被簡化為一種競爭,看看誰可以摧毀最多,那麼為什麼這種競爭不是用來比較誰可以建造最多呢?

在任何情況下,禁止機器人作戰可能是行不通的。目前大大小小的國家並沒有禁止無人駕駛飛機,可以說是明日戰爭機器人(warbots)的前身,反而是正忙於開發它們,大概是因為他們估計的利益大於風險。正如同任何的武器一樣,自己擁有機器人,相對要比信任對方沒有機器人較為安全。如果在未來的戰爭中,數以百萬計的神風無人機(kamikaze drones)可以在幾分鐘之內轟炸破壞常規部隊,那麼它們最好是我方的無人駕駛機。

如果第三次世界大戰將在幾秒鐘之內結束,想要做為可以取得對方系統控制權的一方,我們最好擁有更聰明、更快速、更有彈性的網路系統〔離網系統(Off-grid systems)無法成為解決方案:雖然未連接上網的系統,不會受到駭客的攻擊,但它們同樣無法與網路系統相競爭〕。

總而言之,機器人軍備競賽可能是一件好事,如果當第五屆日內瓦公約(Fifth Geneva Convention)明訂禁止人類上戰場打戰,那麼這項法令便會加速機器人作戰這一天的到來。雖然戰爭將永遠伴隨著我們,但是戰爭所造成的人類傷亡未必會產生。

本文摘自:《大演算:機器學習的終極演算法將如何改變我們的未來,創造新紀元的文明?》,三采文化出版
透過以上連結購書,我們由此所得將全數捐贈兒福聯盟

image002

作者介紹:

佩德羅.多明戈斯(Pedro Domingos)

電腦工程博士,現任華盛頓大學電腦工程系教授,該系是全美前十大電腦工程名校。他初試啼聲聞名圈內是兩度在資料採礦大會上獲得最佳論文,並在此後成為該領域的意見領袖。他在專業領域內獲獎無數,還包含美國國家科學職業成就奬,他也是史丹佛大學及麻省理工學院客座教授。

書籍介紹:

有一個終極演算法,可以解開宇宙所有的祕密,
現在大家都在競爭,誰能最先解開它!

.機器學習是什麼?大演算又是什麼?
.大演算如何運作與發展,機器可以預測什麼?
.我們可以信任機器學過的東西嗎?
.商業、政治為什麼要擁抱機器學習?
.不只商業與政治,醫學與科學界也亟需機器學習,包含DNA解碼、癌症藥品開發等。
.你擔心人類會被大演算所取代嗎?可以避免嗎?該如何做?

華盛頓大學電腦工程系教授佩德羅.多明戈斯(Pedro Domingos)破解了一個在機器學習領域中長久以來的瓶頸,成功把機器學習、哲學與人工智慧結合起來,這個突破性研究還登上了《新科學人》(New Scientist)雜誌的封面故事。

責任編輯:楊士範
核稿編輯:闕士淵


Tags: