通過電腦模擬,創意科技家Matthieu Cherubini 提出了類似“電車難題”的倫理學問題:一個孕婦乘坐在自動駕駛汽車上,14 歲的女孩騎著自行車迎面而來,突然,一輛卡車橫穿到自動駕駛汽車前面。這時候,自動駕駛汽車將如何選擇?
Cherubini 認為,汽車的決策可以基於三個原則:一個是“保護主義”原則,汽車的首要任務是保護乘客安全。這與自動駕駛汽車製造商目前的做法類似;第二個是“人文主義”原則,汽車設法去拯救最多的人;第三個是“利益優先” 原則,汽車將保護最有價值的財產。
在第一個原則下,汽車應該撞上騎車人,因為孕婦的生命更為重要;在第二個原則下,汽車應該撞向貨車,因為孕婦可能會流產,但是騎車女孩的死亡風險更大;在第三個原則下,自動駕駛汽車會認為,無論是那種選擇,乘客的損失都會超過保險所得,但是,由於與卡車相撞的概率更小,它會選擇撞騎自行車的人。
在Cherubibi模擬的狀況中,人的生命總是受到威脅,自動駕駛汽車需要決定誰活下來,誰會死去。他想要提醒人們,道德決策是極為複雜的問題,很難簡化為一種算法。當Cherubini開始研究自動汽車的道德問題時,他相信,機器道德不可能超越人類道德。但是,隨著研究的深入,他開始重新思考,“如果你要思考機器道德,你必須首先思考自身的道德。我真的比機器更好嗎?”他對Fastcodesign網站說。
那麼,Cherubini 希望自動駕駛汽車採取何種算法呢?“當然,我想說自己是人文主義者。但是從內心深處,我只希望得到保護,獲得安全。”
因此,他並不想給汽車製造商推薦任何算法。“如果一輛汽車在德國製造,符合德國的國情和文化,然後,它被進口到了中國。那麼,這輛車或許無法適應中國的國情,”他說,“不同文化擁有不同的道德觀。”
如果汽車擁有者可以選擇算法呢?那仍然是有缺陷的。因為,那種情況下,每個人的生命要依賴於他人的道德選擇。最後,Cherubini 提出了一個新方案,“它不用決定去做什麼——而是隨機行動,”他說,“我們現在就是這樣。我們不去思考撞這個人還是那個人——我們驚慌失措了。你不需要確定其他人的價值,認為某人更應該受到傷害。”