《雷霆救兵》的道德思考、無人駕駛車難題、後記—講座補遺(下)

《雷霆救兵》的道德思考、無人駕駛車難題、後記—講座補遺(下)
Photo Credit: Saving Private Ryan / IMDb

我們想讓你知道的是

繼上篇探討「模擬真實版」電車難題的道德思考,作者再以電影及無人駕駛車難題,提出不同角度的道德反思。

前篇:瘋狂實驗:親身試一次「電車難題」,他們會如何抉擇?—講座補遺(上)

難道電影中Tom Hanks是徹頭徹尾的效益主義者?

MV5BMTM5MzI1MDE5Nl5BMl5BanBnXkFtZTcwNDM3
Photo Credit: Saving Private Ryan / IMDb

不如,我們暫且放下那個曾經苦惱千萬人,又令一些人捉錯用神的「電車難題」,改談一齣電影,今年適逢電影《雷霆救兵》(Saving Private Ryan)20周年,如果細心留意的話,湯漢斯(Tom Hanks)飾演主角Captain John H. Miller有一段對白簡直是經典道德教材:

Do you know how many men I’ve lost under my command?

……Ninety-four.

But that means I’ve saved the lives of 10 times that many, doesn’t it?

Maybe even 20, right? 20 times as many?

And that’s how simple it is.

That’s how you rationalize making the choice between the mission and the men.

This Ryan (had) better be worth it.

He’d better go home, cure some disease, or invent a longer-lasting light bulb or something.

我們很容易理解,Captain Miller之所以滿腦子計較死了多少部下、殺了多少敵人、救回多少國民,一個人能為社會帶來多大福祉(拯救Ryan的價值),並不是因為他是個麻木不仁的效益主義者,事無大小都在「計算」生命數量,而是他的「處境」——戰爭,這個處境迫使他如此思考,受部下的怨言影響,同時思考付出的犧牲,軍事任務的價值,眾多念頭在腦海盤旋交戰,對於身陷戰地的人來說,可謂合情合理(還有一幕,狙擊手Jackson表示欲親手殺掉希特拉一人,終結這場犧牲無數性命的戰爭)。

photo_2018-07-25_13-30-34
Photo Credit: 照片由作者提供

一如邱吉爾帶領英國抗擊納粹德軍時,為了應付侵略者,經常盤算如何減少人命傷亡、撃潰敵人,早日結束戰事,幾乎沒有人在戰爭情境中,斥責這類想法,或看相關電影後厲聲批評。

然而,在日常討論之中,若話題牽涉一些道德理論或原則時,有些人經常不重視「情境」,不重視考慮在「甚麼情況之下」運用哪些原則「比較合適」,更慣常的思維,是先站在認為鐵定正確的某個原則、某個主義,誓死捍衛,猶如手執一把「光明神聖之尺」,量度塵世間的一切,不分任何情況皆可應用,不會區分到底是「危急狀況、戰爭狀態、極地高峯」等特殊情況,抑或是一般情況,總之,凡有言論或做法違反那套價值標準,即視之人渣,斥之做事殘忍。

如何平衡理論與實踐,最考驗人的理性和智慧

Slide10
Photo Credit: 作者提供

神經科學家格林(Joshua Greene)曾參與一項研究,他發現從事公共衛生領域的專業人士,他們回答道德抉擇時,說法大多圍繞制度、社會整體福祉(傾向效益主義);至於前線醫生,他們的說法則大多圍繞病人自身的權益(傾向義務論)。

我們可以設想,假如有人身兼兩職,不但在政府處理重大公共衛生政策,同時是私家診所醫生為人們診症;那麼,我們認為此人最負責任、最符合道德的做事方式,應該是按照「義論務」抑或「益效主義」?

相信任何理性又通達事理的人,立即察覺這問法十分不妥,為甚麼硬要二擇其一?為甚麼要無分任何情況,必須一以貫之?不是由做甚麼事去判斷那套原則比較合適嗎?有必要煩惱嗎?

當聰明人以為道理太過平常,實在無須多談的時候,現實卻告訴我們,並不難碰上「僵化、死硬」看待各類原則、理論的人,偶爾叫人心寒,更可能「好心做壞事」卻不自知。或者換個角度,我們想一想以下問題:

(假設)一旦全球再次重演第二次世界大戰,納粹德軍步步進逼,你身處英國,眼前有兩位政治人物可擔任領袖,一位宣稱不管是和平日子或是面對戰事,他都會絕對貫徹「義務論」的價值原則處事;另一位跟邱吉爾的處事作風完全相同,你會選擇哪一位作為領袖?你相信哪一位的決策會比較「理性」?

談論無人駕駛車難題,不再能視為思想小遊戲

Slide65
Photo Credit: 作者提供

現在,我們回到與「車」相關的討論,這次不談虛擬的電車難題,改談「無人駕駛車難題」。

2012年,美國認知科學家蓋瑞.馬庫斯(GaryMarcus)在《紐約客》(The New Yorker)提出了以下情境:

一輛載滿了乘客的自動駕駛車,高速行駛在高架橋上。突然一輛載了很多孩子的校車(失控)從對向車道開過來。如果自動駕駛車不改變行進路線,就會迎頭撞上校車,使許多孩子失去生命。

如果自動駕駛車緊急轉向,校車上的孩子就能得救。但是,自動駕駛車就會從高架橋上摔下去,車上乘客就此死亡。我想知道,自動駕駛車在這種狀況下該怎麼選擇?

即使你向來把「電車難題」看作是思想小遊戲,無須認真,連回答的氣力也可省掉,可是,上述問題不再一樣,至今苦惱著全球許多專家、車商。

因為當有朝一日無人駕駛科技發展非常成熟,已達「第五級」(level 5)的層次,再無須車上任何人接管駕駛,那麼,主宰車輛反應的演算法承擔了一切責任,變相代替人類進行「道德抉擇」。

Screen_Shot_2018-07-26_at_7_35_34_PM
Photo Credit: The New Yorker截圖

這樣的問題或一時難有鐵定答案,或難有廣泛共識,不過,目前社會大眾如何取態,倒有其參考意義。去年底,科技博客David Silver談論USA Today的相關報導,美國加州大學心理學助理教授Azim Shariff扼要交代一項調查,受訪者一般會認同若無可避免發生交通意外,無人駕駛車應當以減少人命傷亡為依歸,儘管這樣極可能犧牲車內的少數人(有如此想法很正常);然而,弔詭的是,人們又不欲購買傾向犧牲車上的乘客,務求拯救多數人的無人駕駛車(掙扎出現了)。