每日最新頭條.有趣資訊

人類要為無人駕駛車設計道德準則

科技日報北京10月29日電 (記者張夢然)英國《自然》雜誌近日在線發表了一項人工智能(AI)研究:美國麻省理工學院(MIT)報告了全球道德偏好調查,調查內容為:在無法避免的事故中,無人駕駛汽車應如何作出決定拯救哪一方。研究結果結合了全球參與者貢獻的約4000萬個決策,為制定社會普遍接受的人工智能(AI)道德標準提供了重要借鑒。

無人駕駛汽車不僅要能導航路線,還要在不可避免的事故中自行應對道德困境,因此,需要制定一套道德準則來指導AI系統處理這類場景。如果無人駕駛汽車大量投入使用,就必須先確定社會普遍接受的道德準則。

MIT研究團隊此次搭建了一個名為“道德機器”的大型在線調查平台,用來統計全球公民的道德偏好。實驗將參與者置身於一個不可避免的事故場景中,事發時一輛無人駕駛汽車正行駛在雙行道上。每個場景都會讓行人和乘客身處不同的危險,而汽車可以選擇不變道,或急轉到另一條道上。參與者必須選擇救誰,並決定汽車的前進路線。這項實驗共記錄了約4000萬個此類決定。

研究人員識別出了許多共同的道德偏好,諸如救多數不救少數、救年紀小的不救年紀大的、救人不救動物。同時還發現了不同文化之間的道德偏好差異,例如,來自中美洲和南美洲國家、法國以及前法屬海外領地和現法屬領地的參與者,呈現出先救女性和強壯個體的強烈偏好;而來自收入差距較大國家的參與者在決定救誰時,往往會考慮其社會地位。

科學家最後指出,放手讓汽車進行道德抉擇之前,有必要進行全球性的對話,將我們的偏好告知那些道德算法設計公司以及執行監管的政策制定者。

獲得更多的PTT最新消息
按讚加入粉絲團