如果你能設定自動駕駛系統,當自動駕駛車煞車失靈時,會選擇撞上路人還是路障?又或者,你會選擇撞上小孩還是老人?麻省理工學院(MIT)Media Lab發布線上測驗「Moral Machine」,讓人選擇在不同情境下,煞車失靈的自動駕駛車應該撞上哪一側,希望當自動駕駛車面臨生死攸關的兩難抉擇時,能做出更具有人性的選擇。▼你會選擇撞上一群小孩(左),還是撞上一群老人(右)? 在測驗中,自動駕駛車可選擇直行或轉彎,不過不論選擇哪種都會造成死亡,可能是乘客、路人或動物。測驗中也將人細分為男女、小孩或老人、身材胖或瘦、動物或人類、罪犯或守法人士、社經地位高或低等,這些都會影響判斷,人數多寡也列入考慮。▼你會選擇撞上闖紅燈的成人(左),還是撞上一名守法的兒童(右)? ▼你會選擇撞上3名路人(左),還是選擇直行讓車內的動物死亡(右)? 最後,測驗會將個人結果和其他人的平均結果比較,看你的道德觀是否和其他人相仿。結果顯示,比起男性,多數參與調查的人會傾向救女性;比起動物,更傾向救人類;比起老人,更傾向救年輕人;比起竊盜,更傾向救社經地位更高的人;不過當面臨該救乘客還是行人的問題時,結果顯示各半。▼測驗結束可和其他人的測驗結果相比。 MIT在結果頁面下方提醒,這份測驗只是參考用,「我們的目標不是去評斷任何人,而是希望幫助反映出大眾對重要且困難的議題態度為何。」過去,Gizmodo曾報導,儘管多數人希望自動駕駛車應該預設為「盡可能減低傷亡人數」,不過,當詢問自己是否願意搭乘這種自動駕駛車時,多數人卻不願意。進行這份調查的MIT教授Iyad Rahwan表示:「多數人希望自動駕駛車可將傷亡減到最低,但卻希望他們的汽車不計成本來保護他們。」或許這項測驗現在看來像是個小遊戲,但在自動駕駛車普及的將來,自動駕駛系統的程式碼就是判斷行人或乘客的生命孰輕孰重的依據。道德議題對人類來說始終是難解的問題,尤其當生死攸關時更是如此,而這卻是自動駕駛系統開發者需要正視的問題。來源/數位時代 撰文者:張庭瑜有空也可以到線上測驗「Moral Machine」測測看,你和多數人的選擇是一樣的嗎?這真的是個難解的議題啊!圖擷取自網路,如有疑問請私訊

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *