自動駕駛汽車的道德與文化難題|專家論點【張瑞雄】

作者:張瑞雄(1111人力銀行顧問,前北商大校長)

一位英國哲學家在1967年提出了一個倫理學的問題,叫做有軌電車難題(Trolley problem),問題為一輛列車在鐵軌上行駛,在列車行進的軌道上,有五個人被綁起來,無法動彈,如不改變軌道,列車將要輾壓過他們。但如果將列車切換到另一條軌道上,另一條軌道上也有一個人被綁著。所以你有兩種選擇,一是什麼都不做,讓列車按照原來路線輾壓過這五個人,或者改變軌道,輾壓過另一條軌道上的那個人。

原來軌道用五個人或許只是讓你覺得輾壓一個人會比輾壓五個人好一些,其實不管幾個人都一樣,這也不是「兩害相權取其輕」,這是一個道德上的兩難,這也是由AI控制的自動駕駛汽車所必須面對的問題。

2004年美國科幻電影《我,機器人》中,機器人為人類服務。然而並非一切都進展順利。在一場事故中,一名男子被機器人從沉沒水中的汽車中救出,但一名12歲的女孩卻沒有獲救。在時間所限僅能救一個人的情況下,機器人計算出這個男子有更高的生存機會,但人類可能會做出了另一種選擇。在電影的後段,由AI VIKI控制機器人試圖從人類手中接管權力,它決定限制人類行為並殺死一些人類來確保人類的長久生存。這部電影說明了機器人和AI正在接管世界的恐懼,它還指出當機器人和AI達到通用的人類智慧時,它所會面臨的道德困境。

自動駕駛汽車可說是有汽車外表的機器人,想像一輛自動駕駛汽車在一條狹窄的車道上高速行駛,有孩子們在車道上玩耍。汽車有兩種選擇,要嘛避開孩子並撞到牆上,可能會殺死車上的人類乘客;要嘛繼續行駛並緊急剎車,但可能為時已晚,無法挽救孩子的生命。汽車應該要怎麼做?自動駕駛的程式該怎麼寫這段?

有一個網站叫做「道德機器」,透過遊戲問卷來採集人類對於未來機器智慧(如自動駕駛汽車)可能會遇見的各種道德難題的意見的平臺。在遊戲中,將會呈現一個自動駕駛汽車必須在兩難情況下做出選擇的道德困境題目(例如選擇犧牲車內的乘客或撞死路人),作為一個旁觀者,你需要判斷二者之一哪個是更可以接受的情形。

類似的題目例如自動駕駛汽車是否應該優先考慮人類而非寵物、乘客優先於行人、女性優先於男性等等。有趣的是,網民做出的選擇存在著跨文化差異。例如,日本和中國等一些文化會選擇撞上年輕人而不是老年人,而英國和美國等其他文化則剛好相反。因此該實驗不僅提供了一種探討機器倫理的方法,而且提出了一個更普遍的問題,即如何考慮機器人和自動化中的文化差異。

還有責任歸屬的問題,2018年3月,一輛自動駕駛的優步汽車(由Volvo製造)在美國亞利桑那州撞死了一名行人。車上有一名操作員,但在事故發生時汽車處於自動駕駛模式,行人走在人行道外面。此類事故不僅顯示了當今科技發展的局限性(看起來自駕汽車還沒有準備好)和監管的必要性,它們也對責任的歸屬提出了挑戰。在上述車禍誰該為事故負責?汽車當然無法承擔責任,但所涉及的人員都可能負有責任。優步公司尚未準備好就上路、汽車製造商未能開發出安全的汽車、車上的操作員沒有及時反應停車、沒有走在人行道的行人、以及允許這輛車在路上進行測試的監管機構等等。鑑於汽車是自動駕駛的,而且涉及的各方如此之多,我們如何歸因和分配責任?

當馬路上愈來愈多的自駕汽車時,我們是否將人類的生命操縱在那些機器的智慧裡?那些機器有足夠的智慧和道德判斷能力嗎?道德可以加進到程式或晶片裡面嗎?然後又是誰的道德呢?

瀏覽 1,362 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button