專家憂人工智慧武器成「殺人機器」 多國研商限制規範

專家憂人工智慧武器成「殺人機器」 多國研商限制規範
Photo Credit: AP/達志影像
我們想讓你知道的是

人工智慧科技武器越來越多,無須人類指引即能自行判定擊殺目標。令人擔憂的是,這些聰明但毫無人性的武器,恐將發展到人類無法控制的局面。

唸給你聽
powered by Cyberon
Fearing Bombs That Can Pick Whom to Kill(The New York Times)

去年美國空軍B-1轟炸機在加州外海發射一枚洛克希德馬丁公司製造的實驗飛彈,開啟未來戰爭的序幕:機員發射並引導飛彈,飛彈在半途切斷通訊,自行從海上三艘船隻選擇攻擊目標,最後擊毀一艘貨輪。

科技進步,人工智慧科技武器越來越多,無須人類指引即能自行判定擊殺目標,自主武器軍備競賽已在國際間悄悄展開。令人擔憂的是,這些聰明但毫無人性的武器,恐將發展到人類無法控制的局面。專家擔心人工智慧武器等於是為所欲為的殺人機器,應援引公約予以限制;多國代表13日齊聚瑞士日內瓦,研商如何制定相關規範。屆時與會者將提出是否援引聯合國禁止研發某些特定武器的「特定常規武器公約」加以限制。

目前英國、以色列與挪威,都已部署自主飛彈與無人操控的無人機,可使用於攻擊敵方的雷達、坦克或軍艦等。例如具備有「射後不理」(fire-and-forget)能力的英國硫磺飛彈,可自行分辨坦克、汽車與巴士,也毋須監控就在預先指派範圍內找到攻擊目標。多枚硫磺飛彈還可互相溝通,分享找到攻擊目標。

近年來,人工智慧在高速股票交易、醫療診斷、甚至自動駕駛汽車等多個領域漸漸補上人類決策的不足,而新型雷達、雷射與紅外線感測器的技術進展,有助飛彈與無人機更精確地計算位置與方向。

五角大廈已發布方針,要求研發自主武器須經高層將領批准。但有專家說,科技發展太快,方針早過時。這類武器最大好處是更精準,可降低平民傷亡。專家表示,製造先進武器的國家應同意設限,讓武器系統在選擇與攻擊目標方面具備「有意義的」人類控制;但也有軍事分析家主張自主武器應獲接納,因為它們可能減少大規模死亡與老百姓死傷。

人工智慧(AI)發展突飛猛進,牛津大學人類未來研究所綜合多份專家訪調預估,2022年電腦有10%機會和人腦一樣聰明,具備直覺和邏輯能力,能從經驗中學習,2040年機率增至50%、2075年機率更衝上90%。一旦AI智慧和人類相當,未來就有機會超越人類,後果難以預料。霍金曾警告,人類恐怕會自取滅亡。10%受訪者認為,電腦智慧追上人類後,兩年內即可把人類甩在後頭,75%受訪者認為電腦還要30年才能壓過人類。

英國知名物理學家霍金等人曾在英國獨立報發表文章警告,AI短期內的影響端賴背後掌控的人而定,但長遠來看,AI能否被操控,才是問題的核心。因為AI未來可能會比金融市場還聰明、比科學家更具創意、比人類領袖更能操縱人心、甚至還有機會研發出人們完全無法理解的武器。

相關問題引發國際關注。聯合國5月13日在瑞士日內瓦舉辦首場國際會議,討論是否應該發展致命自主武器系統,也就是所謂的「殺手機器人」。

無人操控武器 國際共商規範(蘋果)
人工智慧武器竄起 專家憂成殺人機器(自由)
AI高速發展!電腦和人腦一樣聰明、2022年成真?(MoneyDJ)

或許你會想看
更多『新聞』文章 更多『新聞』文章 更多『Sid Weng』文章
Loader