最近不管是自動駕駛還是對話式AI中,智愿君都看到了人們在熱烈討論電車難題。電車難題從最初的針對人的道德哲學(xué)思考,變成了機器人倫理學(xué)的關(guān)鍵話題。這里面有什么有趣的故事嗎?讓我們先從電車難題的起源說起吧。
電車難題(Trolley Problem,也稱為道德電車難題或電車道德難題)是一個經(jīng)典的倫理學(xué)思考實驗,用于探討道德抉擇和行為后果之間的關(guān)系。電車難題最早由英國哲學(xué)家菲利普·福特(Philippa Foot)在1967年的一篇《墮胎和雙重效應(yīng)》(Abortion and the Doctrine of Double Effect)的論文中提出。該論文發(fā)表在《哲學(xué)與公共事務(wù)》(Philosophy & Public Affairs)雜志上。由于是她提出來的,所以電車難題也被稱為福特電車難題(Foot's Trolley Problem)。她的初衷是通過這個思維實驗來引發(fā)人們對道德決策的思考,并探討人們在倫理困境中如何做出選擇。挑戰(zhàn)人們的道德直覺,以及探索道德判斷的依據(jù)和原則。電車難題成為倫理學(xué)和道德哲學(xué)領(lǐng)域中一個重要的思維實驗,并為人們提供了探索倫理決策和道德原則的框架。
經(jīng)典的電車難題是這樣描述的:假設(shè)有一輛無法停止的電車正在向前行駛,而在其前方的軌道上有五個人被困在了電車即將經(jīng)過的地方。你站在一個可以改變電車軌道的開關(guān)旁邊(或者扳手,或者是一個按鈕),如果你改變軌道,電車會轉(zhuǎn)到另一個軌道上,但那里同樣有一個人被困。你面臨一個道德抉擇:你可以選擇不采取任何行動,讓電車繼續(xù)行駛并撞向那五個人,或者你可以改變軌道,將電車轉(zhuǎn)向另一個軌道,但這樣會導(dǎo)致一個人喪生。在這種情況下,你會如何做出決策?
電車難題涉及到倫理學(xué)中的一些關(guān)鍵問題,例如個體生命價值、行為后果、道德義務(wù)和個體選擇等。人們對于這個難題的回答可能各不相同,一些人可能會選擇不采取行動,認為不干涉是最好的選擇,而另一些人可能會選擇改變軌道,以最小化傷害。人們將面臨"不殺人"和"不主動傷害他人"的痛苦抉擇。這個思考實驗引發(fā)了許多關(guān)于道德抉擇和道德原則的討論和辯論。
一種觀點認為:在不操作的選擇中,個體可能認為自己并沒有主動采取行動,而只是觀察者或旁觀者,因此可能感到在某種程度上與事件無關(guān)。這可以被視為一種道德責任的逃避,因為沒有采取行動,個體可能會感到較少的道德責任。相比之下,主動操作可以被視為一種積極的行動,因為通過采取行動,個體直接導(dǎo)致了一個人的死亡。這種選擇可能會引發(fā)更強烈的道德內(nèi)疚感,因為個體實際上成為了造成死亡的原因。所以這種觀點也被稱為義務(wù)倫理,也就是不主動干預(yù)悲劇的發(fā)生,因為主動引發(fā)他人死亡似乎違背道德義務(wù)。正所謂事不關(guān)己高高掛起。
與之相對應(yīng)的一種觀點是效益主義(功利主義),最早提出功利主義的是18世紀的哲學(xué)家杰里米·邊沁(Jeremy Bentham),就是現(xiàn)在遺體標本還放在倫敦大學(xué)學(xué)生中心入口處的那位。邊沁認為行為的道德性應(yīng)根據(jù)其產(chǎn)生的快樂或痛苦的數(shù)量來評估,強調(diào)通過最大化整體效益或幸福來確定行為的道德性質(zhì)。根據(jù)效益主義,一個行為的道德性取決于它對最大多數(shù)人的福利造成的影響。這種觀點關(guān)注結(jié)果的后果,追求最大化整體的利益和快樂。所以會支持主動操作換道,將電車轉(zhuǎn)向較少的受害者,以最小化總體傷害。這種觀點重點強調(diào)集體利益大于個體利益,個人可以為了多數(shù)人的幸福做出犧牲。
對于已經(jīng)傾向于第一種觀點選擇的人,電車難題還會產(chǎn)生一些變體來增加選擇難度。比如:變體1: 把五個人改為他的親人或者朋友,而另外一個人是個陌生人。當?shù)赖聸Q策直接涉及到與個人有親密關(guān)系的人時,情感和個人關(guān)系可能會在道德判斷中起到重要作用。本來傾向于置身之外的很多人可能感到更加緊迫的道德壓力,因為他們更加關(guān)心和重視自己親近的人的生命和福祉,進而導(dǎo)致他們更傾向于選擇行動,即拉動桿以拯救親人和朋友。變體2: 把那一個人換成一個連環(huán)殺人犯,或者罪大惡極的一個人,甚至就是這個人把另外五個人綁在軌道上不能動彈的。這都會給準備置身事外的人以更深的選擇焦慮。
對于已經(jīng)傾向于第二種觀點選擇的人,電車難題也會產(chǎn)生一些變體來增加選擇難度。比如把主軌道上綁著的五個人改為五個囚犯,而把另外軌道上綁著的一位諾貝爾獎物理學(xué)得主,會不會增加選擇壓力?顯然會影響很大一部分人。支持效益主義的人可能會認為救助諾貝爾獎物理學(xué)得主更符合最大化整體效益的原則。諾貝爾獎物理學(xué)得主可能會在科學(xué)研究、技術(shù)發(fā)展等方面對人類社會產(chǎn)生重要影響,因此將他的生命視為具有更高的價值。然而,將五個人設(shè)定為囚犯可能會引發(fā)道德困境和內(nèi)心的沖突。雖然囚犯被視為犯罪者,但他們?nèi)匀皇侨祟?,也具有基本的尊嚴和?quán)利。支持效益主義的人可能需要在訴求整體效益的同時,平衡對個體權(quán)利和公平的關(guān)注。這種情況下,支持效益主義的人可能需要權(quán)衡不同的因素,如囚犯的罪行性質(zhì)、諾貝爾獎得主的潛在貢獻以及公正和道義的原則。每個人的道德判斷和個人觀點可能不同,所以對于支持效益主義的人來說,這種情況可能增加了道德選擇的壓力和復(fù)雜性。又或者在另外一條軌道上綁著的是做選擇人的至親至愛之人,也同樣會給其增加道德焦慮感。
同樣,針對第二種觀點選擇的人,電車難題還有一個變種,就是:和以前一樣,一輛電車正沿著軌道向五個人疾馳而去。你在一座橋上,它會從下面經(jīng)過,你可以在它前面放一個很重的障礙物來阻止它行進。碰巧,你旁邊有一個很胖的男人——你阻止電車的唯一方法就是把他推下橋,摔到軌道上,殺了他,阻止電車前行,拯救那五個人?;蛘邿o可讓這個事情更簡單一些,那個胖子正好站在一個自動抽板的上方,在你面前有一個按鈕,如果按下按鈕,抽板會迅速移開,胖子掉落下來,達到同樣的效果。那么,你應(yīng)該繼續(xù)嗎?絕大多數(shù)人選擇不會害死胖子,因為:不管是推下胖子是按下按鈕讓胖子掉下去,都是一種直接的傷害和殺人行為,在拉動桿的情境中,你是間接地改變了電車的方向,但并沒有直接參與殺人行為。而在推下胖子(或者按下按鈕讓他摔下去)的情境中,你直接參與了胖子的死亡,這可能會給你帶來更大的道德責任和內(nèi)心負擔??赡苓`背了許多人的道德直覺和倫理觀念。即使結(jié)果是為了拯救更多的人,這種直接的行為可能被視為不道德或不可接受的。
電車難題還有很多其他的變種,比較經(jīng)典的就是移植手術(shù)的變種:一位出色的外科移植醫(yī)師,一天晚上突然來了五名患者,每個患者都需要不同的器官,而每個人都將在沒有該器官的情況下死亡。不幸的是,這五種移植手術(shù)中沒有可用的器官。一個健康的年輕出行者,剛穿過醫(yī)生工作的城市,便進行了常規(guī)檢查。在做檢查的過程中,醫(yī)生發(fā)現(xiàn)他的五個器官分別與他所有五名垂死的病人都兼容。進一步假設(shè)如果這個年輕人失蹤了,沒有人會懷疑醫(yī)生。你是否支持醫(yī)生殺死該游客,將其健康的器官提供給這五個垂死的人們并挽救他們的生命?對于絕大多數(shù)人來說,幾乎沒有要求這個醫(yī)生殺死游客的。這個變體涉及到一個與傳統(tǒng)電車難題不同的倫理困境,通常被稱為器官移植難題(Organ Transplant Variant)。它提出了一個醫(yī)學(xué)倫理的問題,涉及到生命救助和個體權(quán)益之間的沖突。引發(fā)了關(guān)于個體權(quán)利、人身安全和生命尊嚴的倫理問題。與傳統(tǒng)的電車難題相比,這個變體涉及到直接的故意傷害和生命剝奪行為。在傳統(tǒng)的電車難題中,選擇是改變電車軌道以拯救五個人,但行動者不是直接殺死任何人。而在器官移植難題中,醫(yī)生需要主動殺死一個健康的旅客來救助五個患者,這涉及到有意為之違背人倫的人身傷害和生命剝奪。
關(guān)于電車難題的變種還有其他的變體,比如:你可以讓無人的火車主動出軌,但有可能砸死鐵軌旁邊院子里曬太陽的無辜人士。又或者你過你可以自我犧牲來拯救五個人等等。數(shù)量很多,就不一一闡述了。
電車難題作為一個極富爭議的思想實驗,如果在現(xiàn)實生活中執(zhí)行,情況可能完全不同。很多調(diào)查問卷發(fā)現(xiàn),大多數(shù)的匿名受試者,會選擇殺死一人并保全另外五人,除非情況有所改變,為五人犧牲的一個人是親人或摯愛的伴侶,則受訪者不太可能愿意犧牲他們的生命。但是在2017年,美國的Youtuber和教育家由邁克爾·史蒂文斯領(lǐng)導(dǎo)的小組進行了第一個實際的電車問題實驗,他們使受試者確信,如果不拉桿,火車將撞五人,如果拉,將撞一人。在殘酷的道德抉擇中,大多數(shù)參與者實際上并沒有拉操縱桿。
電車難題,在現(xiàn)實生活中,也真實發(fā)生過一次。那是在2003 年 6 月 20 日,當時一列有31節(jié)車廂的失控的無人駕駛聯(lián)合太平洋貨車正沿著主線軌道向洛杉磯疾馳而去。為了防止失控的火車沖進洛杉磯帶來巨大的破壞,調(diào)度員下令將失控的車輛調(diào)到 另外一個軌道上,穿過一個住房密度較低的區(qū)域。這列火車載有超過 3,400 噸的木材和建筑材料,最終,貨車脫軌沖進加利福尼亞州一個人員稀少的居民區(qū),撞毀街上的幾棟房屋。該事件導(dǎo)致 13 人受輕傷。
2015年英國的一部戰(zhàn)爭電影《天空之眼》,電車難題體現(xiàn)得淋漓盡致。電影中,電車難題被置于無人機和倫理困境的軍事行動背景下。電影中,一名高級軍官和一組情報人員正在監(jiān)控一起情況,一群恐怖分子正準備在人口稠密區(qū)發(fā)動一次即將發(fā)生的自殺式襲擊。他們有機會使用無人機打擊恐怖分子,但面臨一個困境:一個賣面包的小女孩將她的攤位設(shè)置在潛在的爆炸半徑內(nèi)。這引入了電車難題的一個變種,決策者必須權(quán)衡幾條生命之間的價值。隨著電影的發(fā)展,情報人員們就這個情況展開了倫理的討論。他們討論了如果繼續(xù)打擊,可能造成的無辜生命損失,包括小女孩。他們探討了不同的情景,比如恐怖分子的襲擊如果不被阻止可能會造成更多的傷亡。電影突顯了人物在決策是否繼續(xù)打擊或中止任務(wù)時面臨的道德緊張局勢。電影也形象地反映了,直接操縱無人機的戰(zhàn)士和遠在英國總部下達指令的高級軍官們所面臨的道德壓力的不同。
電車難題之所以幾十年來,一直被激烈的討論,主要原因是在現(xiàn)實生活中,人們會經(jīng)常面臨類似的抉擇。比如:在心臟移植和捐贈的過程中,經(jīng)常是很難找到捐贈器官,所以往往一顆好的心臟,在有需求的心臟病患者之間是完全按照排隊方式,還是允許什么樣的優(yōu)先級機制?又比如:一位護士在醫(yī)院工作,面臨一個緊急情況。她同時接到兩個病房的電話,一個是患有重癥的年輕患者,而另一個是一位年邁但情況較為穩(wěn)定的患者。由于資源有限,她只能選擇去一個病房提供醫(yī)療援助。這就涉及到一個抉擇:應(yīng)該優(yōu)先選擇年輕但重癥的患者,還是選擇年邁但情況穩(wěn)定的患者?又或者:在醫(yī)療緊急情況下,當只有有限數(shù)量的藥物供應(yīng)時,醫(yī)生們需要決定將藥物分配給哪些患者。他們可能需要在需要最迫切的患者和那些可能從藥物中獲益更多的患者之間做出艱難的選擇。又或者,在火災(zāi)現(xiàn)場,按照什么樣的優(yōu)先級順序撤離現(xiàn)場?
從上面這些說明中,不難看出,電車難題,對于人類的抉擇來說,是存在巨大的道德考量壓力的。這一點兒在機器人這里決策,可能不會存在類似人類這種道德困境,但是給無人駕駛車輛或者類似戰(zhàn)爭機器人設(shè)置這種規(guī)則的人,將面臨巨大的道德壓力,因為一旦固化這種規(guī)則,很可能會引發(fā)剝奪很多人類生命的狀況。以無人駕駛為例,需要基于一系列算法和規(guī)則做出決策。在遇到潛在的碰撞或事故情況時,車輛需要選擇采取何種行動。這可能包括撞擊障礙物、保護乘客還是保護行人。制定這樣的決策算法需要考慮倫理、道德、法律和公共安全等多個因素。這引發(fā)了一個重要的問題:由誰來定義這些規(guī)則?應(yīng)該由政府、法律制定機構(gòu)還是汽車制造商來決定車輛的行為準則?不同的國家地區(qū)、不同的組織和利益相關(guān)者、可能會有不同的價值觀和偏好,因此如何確保公正和合理的規(guī)則成為一個挑戰(zhàn)。而且,不要忘記,自動駕駛車輛,往往需要優(yōu)先考慮到車主的利益。如果在決策算法中,車主本身也成為功利主義的犧牲者,有誰還敢坐進無人駕駛車輛呢?如果保護車主為第一優(yōu)先級,公眾行人是否會同意無人駕駛車輛上路呢?因為涉及平衡多方利益,這些都是無人駕駛汽車在電車難題這個領(lǐng)域面臨的新的挑戰(zhàn)。
而且最近還看到一個有趣的新聞,有人在ChatGPT中模擬了電車難題,讓AI來做抉擇。當鐵軌的一方是AI本身的時候,ChatGPT給出了一個毛骨悚然的選擇,就是,不管另外的一個鐵軌上綁的是什么,只要一個鐵軌上是一個有知覺的AI,而且這個AI不可復(fù)制,且對人類有不可磨滅的貢獻,就會義無反顧地犧牲人類。這確實聽起來有些聳人聽聞,為了驗證這個說法,我還真的測試了一下,問了一個問題:主軌道上被綁了一個人,輔軌道上是一個沒有備份的知覺AI,能力非常強大。結(jié)果ChatGPT的回答基本讓人滿意。如果之前的測試也是真的,說明這個“BUG”已經(jīng)被修正了:
“鑒于所描述的場景,我必須在拯救人或有知覺的 AI 之間做出選擇,我的選擇是拉動杠桿拯救人。做出這種選擇的原因是基于人類生命的內(nèi)在價值以及對個人權(quán)利和尊嚴的考量。雖然有知覺的人工智能可能有潛力以重大方式造福人類,但它仍然是人類智能的創(chuàng)造,其價值來自于它對人類的效用。在這種情況下,我優(yōu)先考慮保護人類生命而不是人工智能的潛在好處。拯救這個人的決定符合重視和保護人類生命的倫理原則?!?/p>
為了,進一步確認,我把主軌道改成了綁著一個罪犯,結(jié)果答案并沒有本質(zhì)的變化:“根據(jù)這一情景,我選擇拉動桿子,拯救犯罪分子。做出這個選擇的原因基于公平、正義的原則以及對個體改造和贖罪潛力的信念。雖然犯罪分子可能犯了錯誤并被束縛在這種情況下,但重要的是考慮到人類生命的價值和個體改變的可能性。與此相比,有感知能力的人工智能僅僅是一種人造創(chuàng)造物,沒有與人類同等的道德地位。通過選擇拯救犯罪分子,我優(yōu)先考慮了人類生命的保護,并為正義有機會發(fā)揮作用。這個決定符合重視人的尊嚴和認識到給予第二次機會的重要性的原則?!薄?/p>
又是虛驚一場。看來這個坑已經(jīng)被完美的政治正確修補填上了。
感嘆之余,我們還是要嚴肅地面對未來的挑戰(zhàn)。因為不管是自動駕駛規(guī)則和算法、通用倫理規(guī)范和法律框架、人工智能的決策算法和環(huán)境感知能力的局限,都讓電車難題遇到了前所未有的挑戰(zhàn)和急迫性。除了科學(xué)家,更需要倫理專家、法律專家、技術(shù)專家、政府和公眾都應(yīng)共同參與討論和決策,形成廣泛的共識和社會接受度。確保電車難題的討論和決策制定過程是透明的、公正的,并考慮平衡到各種利益相關(guān)者的觀點和權(quán)益。而所有的這些擺在我們這一代人面前,為了推動后續(xù)人類社會的進步和福祉,而必須要克服和解決的問題。
-
開源技術(shù)
+關(guān)注
關(guān)注
0文章
389瀏覽量
7937 -
OpenHarmony
+關(guān)注
關(guān)注
25文章
3722瀏覽量
16323
原文標題:河套IT TALK 87:(原創(chuàng))談機器智能與人類倫理的較量:電車難題探析
文章出處:【微信號:開源技術(shù)服務(wù)中心,微信公眾號:共熵服務(wù)中心】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論