- +1
車禍發(fā)生時該撞誰?無人駕駛汽車也想“有道德地開車”
這是2035年,自動駕駛汽車載著主人去上班。聰明的汽車解放了雙手,整個世界都“萌萌噠”。
——且慢!上班路上,一輛校車正在道路的相反方向行駛。突然,校車失控,迎頭撞向自動駕駛汽車。汽車的右邊,是一名騎自行車的路人,沒有戴防護頭盔;左邊則是另一位騎車者,戴有防護頭盔。
怎么辦?剎那間,自動駕駛汽車必須做出看似不可能的選擇:繼續(xù)直線行駛撞上校車,傷及車上的幾個孩子;或者迅速打彎,撞倒某一位騎車者。
如此促狹的道德困境,曾經(jīng)只是學(xué)院派哲學(xué)家們的客廳游戲(譬如,倫理學(xué)領(lǐng)域最為知名的思想實驗之一——“電車難題”)。今天,它已經(jīng)成為汽車廠商打造無人駕駛汽車的當(dāng)務(wù)之急。
汽車公司清楚知道,任何一起街談巷聞、經(jīng)不起道德拷問的事故,都會斷送所謂“無人駕駛”技術(shù)的前程,尤其是當(dāng)事故中的自動駕駛汽車不惜犧牲別人來保護它的主人時。以下是英國金融時報對上述困境的詳盡探討:
“是人都會犯錯,但機器人得絕對可靠”
“當(dāng)這類事故發(fā)生了,有人會說:嘖嘖,人類可不會犯這種錯,”達(dá)姆施塔特科技大學(xué)汽車工程學(xué)院院長赫伯特·溫納表示,“人們認(rèn)為是人都會犯錯,但機器人得絕對可靠?!?/p>
汽車制造商也因此開始咨詢倫理學(xué)家,是否自動駕駛汽車能夠而且應(yīng)該,使用某種算法來復(fù)制人類司機“有道德的”決定。
理論上,這一算法可評估各種行為的后果并進行排序。但上述校車的例子說明,“最少損失”選項仍可能致人傷亡。
“即使這是一個罕見的例子,在遭遇不可避免的撞車事故時,汽車廠商仍需要為車輛制定對策,應(yīng)對失當(dāng)將招致的繁瑣的法律訴訟,還會成為聳人聽聞的媒體頭條?!奔又葜萘⒐I(yè)大學(xué)倫理和新興科學(xué)組主任帕特里克·林表示。
林已向部分汽車制造商包括奔馳、寶馬和特斯拉,以及科技公司谷歌,提供了關(guān)于倫理問題的咨詢。雖然被禁止透露會談的性質(zhì),但他指出,“(汽車)行業(yè)對這些倫理問題比外界還要敏感,畢竟這關(guān)系到他們的收入、工作崗位和聲譽?!?/p>
戴姆勒奔馳汽車旗下的德國奔馳基金會(Daimler and Benz Foundation),將在今年5月出版自動駕駛汽車的倫理研究成果。
此外,德國交通部設(shè)立了圓桌會議,由更廣泛的汽車業(yè)者參與無人駕駛汽車的倫理討論。其他參與者包括學(xué)者、保險行業(yè)和消費者代表。
據(jù)參與者透露,道德問題無礙第一波自動駕駛技術(shù)的發(fā)展,諸如低速自動行駛技術(shù)。相反,圓桌會議更著眼于防碰撞措施。
“大部分參與者尚未觸及自動駕駛汽車做出有道德決定的可能性?!钡聡嚲銟凡緼DAC的交通安全專家克里斯托夫·赫克特說,“普遍的觀點是,它應(yīng)該像普通人做的那樣,竭力防止交通意外發(fā)生。但別指望它創(chuàng)造奇跡。”
從去年開始,沃爾沃就在哥德堡的公路上測試100輛無人駕駛汽車。該公司也有類似觀念。“汽車不會內(nèi)置那種所謂遭遇(困境)時的優(yōu)先名單?!痹摴窘忉尫Q。與之相反,沃爾沃的目標(biāo)是避免汽車遭遇這種困境。
遭遇科技和法律瓶頸
不過,當(dāng)自動駕駛汽車被允許以更高速度行駛在擁擠的城市車流中時,道德選擇就不可避免。例如,如果行人突然走到無人駕駛汽車前,又會如何?
斯坦福汽車研究中心主任克里斯·格德斯(Chris Gerdes)的問題是:“除了踩剎車,這輛車是否有責(zé)任采取更多措施?它是否應(yīng)該轉(zhuǎn)向其他車道,即使撞上一輛停著的汽車或其他車輛,也不要傷及行人?”
這么聰明?可惜,眼下的汽車科技還達(dá)不到這種“有道德”的水平。
溫納認(rèn)為,在碰撞事故發(fā)生前幾秒鐘,自動駕駛汽車很難準(zhǔn)確預(yù)測其他車輛或行人的行為,這也使得避免事故發(fā)生難上加難。
德國汽車工業(yè)協(xié)會(VDA)的發(fā)言人??斯亍ち_特承認(rèn),無人駕駛汽車有局限性?!拔覀兒敛环裾J(rèn)倫理的重要性,相反,我們滿腦子都在思考這些問題——但需要注意的是,當(dāng)前技術(shù)的力所能及,以及未來發(fā)展的前景?!彼f。
即使未來電腦運算能力進步了,具備碰撞算法的自動駕駛汽車發(fā)生致命事故后,仍會為程序員和汽車廠商帶來龐雜的法律訴訟。
德國憲法的前兩章中寫道,人類尊嚴(yán)“神圣不可踐踏”,受到國家法律保護。德國法院一般解讀認(rèn)為,這意味著不能將一條生命的價值與另一條做比較。
林說,在他與奔馳基金會的討論中,這一憲法問題已被提及。德國圓桌會議對此也有討論。
“德國法律中對人的生命和尊嚴(yán)的規(guī)定,意味著由函數(shù)程序算法來計算人的價值幾何,完全是非法的。”林補充說。
為消除這種顧慮,一些專家贊同以“隨機生成器”來解決問題?!叭绻悴幌M疹櫋硞€特殊群體,這才是最公平的選擇?!睖丶{表示。
有鑒于這類道德泥潭,政策制定者肯定不會讓汽車軟件工程師主宰無人駕駛汽車的道德規(guī)范。
轉(zhuǎn)向或者不轉(zhuǎn),這是個問題
我們甚至可以想象,消費者需要的是“可調(diào)整的倫理設(shè)置”——當(dāng)校車失控急速向他們沖來,由車主來做出最終選擇。
猛打方向盤,或者不打??……這真的是個問題。
研究人員稱,汽車廠商面臨的挑戰(zhàn)是,將無人駕駛汽車的程序改造得與人類一樣,具備某種“倫理彈性”。
對大多數(shù)人類司機而言,道德具有內(nèi)在的彈性。舉個例子,與其死守“禁止超車”警示牌的字面涵義,司機可能為了讓騎車者騎得更舒服自在而超車。
斯坦福汽車研究中心主任克里斯·格德斯,與許多汽車業(yè)高管探討過“道德問題”。他認(rèn)為:“目前的挑戰(zhàn)是,我們(人類)對事物優(yōu)先級和重要性的判斷,在不同情況下并不總是一致?!?/p>
在自動駕駛汽車面臨無論怎么選都只有負(fù)面結(jié)果的情況下,這一挑戰(zhàn)尤為明顯。
戴姆勒奔馳汽車是自動駕駛技術(shù)的領(lǐng)導(dǎo)者之一,其首席執(zhí)行官蔡澈(Dieter Zetsche),今年1月在美國的消費電子產(chǎn)品展上強調(diào)了上述倫理困境。
“如果事故不可避免,汽車該怎么做?如果選無可選,是撞向一輛小型車還是大卡車;開到路溝還是沖上圍墻;是冒險側(cè)撞上推著嬰兒車的母親,還是一位80歲的老奶奶?”他像個哲學(xué)家般發(fā)問。
無論如何,汽車廠商們認(rèn)為,自動駕駛車輛應(yīng)可避免大部分“選擇困境”——他們的汽車比人反應(yīng)更迅速、剎車更及時、操縱更靈巧??墒鞘朗聼o常,它們有時必須像人類司機那樣,在轉(zhuǎn)瞬間做出本能反應(yīng)——當(dāng)這種情況出現(xiàn),算法程序說不定能讓汽車躲過一劫。
(澎湃新聞記者謝涓編譯)





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司




