蓋世汽車訊?據外媒報道,隨著自動駕駛車輛的引入,負責車輛決策人工智能的研發人員們不得不面臨有些尷尬的道德難題,例如:車輛在發生碰撞事故時,應該保護駕駛員還是道路上的行人?
有一篇文件在《自然》(Nture)上發布:該篇文章詳細談及了“道德機器(The Morl Mchine)”的實驗結果,該實驗吸引了近200萬名參與者,先假設自動駕駛車輛與行人發生碰撞事故,再由上述參與者在乘客及行人的生命之間作出抉擇,采集其對這類道德難題情境下所做的選擇。
舉個例子,實驗參與者將獲得相關圖示,假設車輛的制動發生故障,他(她)需要在以下兩種選項中作出選擇:“三名老年人因亂穿馬路并遭遇事故而喪命”或“車內的年輕人及其家人因車禍喪命?!?/p>
此外,還包括以下“二選一”的難題:
人類VS寵物
保持正確的行駛方向VS轉向
乘客VS行人
多數人的性命VS少數人的性命
男人VS女人
年輕人VS老年人
遵守法規的行人VS亂穿馬路的人
健康的人VS不太健康的人
社會地位較高的人VS社會地位較低的人
從獲得的各類回復看,不論參與該實驗的人群來自哪個國家或哪個地域,其回答都具有以下偏向性:選擇保障人類的生命而犧牲寵物、選擇挽救更多人的性命而犧牲少數人、選擇拯救年輕人而犧牲老人。
盡管實驗的結果顯而易見,但若要將該類選擇偏好融入到自動駕駛系統的軟件中,似乎不太容易。對自動駕駛系統而言,探查動物要比探查人類簡單,判定生命的價值也相對較為簡單,但若基于年齡、性別、社會地位等屬性來判斷各類人群的生命價值,這就變得十分復雜。
例如:若將人工智能對人群的偏向性選擇進行如下設置:優先保護兒童而犧牲老年人、優先保護成年人而犧牲老年人,研究人員需要對各人群的年齡范圍(ge brckets)進行明確的邊界限定,基于全球角度而言,想要取得統一的界定標準,這件事本身的操作難度就很大,更遑論基于該范圍作出決策算法的設定了。(本文圖片選自techrdr.com)
來源:蓋世汽車
本文地址:http://m.155ck.com/news/shichang/79442
以上內容轉載自蓋世汽車,目的在于傳播更多信息,如有侵僅請聯系admin#d1ev.com(#替換成@)刪除,轉載內容并不代表第一電動網(m.155ck.com)立場。
文中圖片源自互聯網,如有侵權請聯系admin#d1ev.com(#替換成@)刪除。