每日最新頭條.有趣資訊

別再把人類那套偏見歧視帶到AI!

本文看點

▪在創新方面大膽思考意味著直面重大社會問題。如果我們的創新受到女性主義科幻小說作家和理論家的啟發,將技術領域轉移到使社會朝著和平與平等的方向發展的發明和改進,則包容性驅動的人工智能(AI)將是技術創新的基石。

包容性AI首先要解決的問題是偏見。受過人工訓練的機器,複製和加劇了社會歧視。劍橋大學研究表明,人工智能系統的設計增強了性別刻板印象,不關注性別平等問題的法律和政策,廣泛使用偏見數據集,而且AI工作者缺乏多樣性。

目前,AI系統的另一個問題是設計和部署系統的人與受這些系統影響的人員之間的隔閡越來越深。女權主義理論與人工智能的交匯帶來了具有深遠影響的新可能性。性別理論家與技術專家之間的對話將有助於實現社會平等的目標,但性別理論和AI實踐使用的是完全不同的語言。

原文來自Forbes,作者Annie Brown

當我們想到人工智能(AI)的未來時,許多人都想到了有感知力的機器人或自動駕駛汽車。這些當前的構想以及為實現它們而采取的後續行動,在很大程度上受到科幻小說的影響,如黑色反烏托邦科幻電影《銀翼殺手》或美國愛情科幻電影《她》。

但是,如果我們的創新受到女性主義科幻小說作家和理論家厄休拉·勒古恩、奧克塔維婭·巴特勒和唐娜·哈拉維的啟發,會怎樣呢?

當你將技術領域對“進步”的定義從新機器或更快的系統,轉移到使社會朝著和平與平等的方向發展的發明和改進——包容性驅動的AI突然變得不僅僅是一件美好的事情,而是技術創新的基石。

當我們談論包容性AI時,首先要解決的問題是偏見——尤其是受過人工訓練的機器複製和加劇社會歧視的方式。《連線》雜誌報導了一個有趣但悲慘的例子,它說明了訓練AI過程中的個人偏見指數效應:

在其他練習中,員工有時會根據自身固有的偏見對廣告進行錯誤描述。舉一個明顯的例子,某員工錯誤地將保守派組織的支持LGBT的廣告歸為反LGBT廣告。當我指出她對保守派團體在LGBT問題上觀點的假設導致歸類錯誤時,回應我的只有沉默。

這些錯誤的特徵會被整合到培訓人工審閱者和機器的手冊中。這些是在嘗試做正確的事情時犯的錯誤。但是,它們證明了為什麽在更廣泛的層面上,對未經培訓的工程師和數據科學家進行糾正偏見是天真的,在領導層面來看則是不真誠的。

眾所周知,算法中的不平等的根源在於技術領域的長期缺乏多樣性,該問題亟待解決。我們需要聽取不同的聲音去建設、訓練以及監督平台。

多樣性意味著人們具有不同經歷、種族、性別、宗教、社會經濟背景等。算法不是僅僅為了一種類型的人構建的,而是為所有類型的人。

我們當前的算法是由具有系統性偏見的人創建的,這些人未經訓練就可以識別甚至被灌輸這些偏見。例如,社交媒體審核算法更可能標記女性、同志和跨性別者分享的內容。

難以置信?《赫芬頓郵報》最近發表了一篇文章,引用了Instagram上的一種常見做法,該做法有助於提高曝光率和參與度——帳戶將性別從女性更改為男性。

問題是,許多技術公司和創新者沒有試圖解決這些問題,而是繼續推動有缺陷的AI的發展。關於包容性AI的討論被邊緣化,結果是目前的AI效率低下、不準確,並且遠遠沒有為社會帶來任何有意義的進步。

這並不是說沒有人提及包容性AI或正在推動一些激動人心的舉措。例如,IBM的AI Fairness 360是一個開源工具包,可幫助開發人員測試其數據集中的偏差。

5月,Facebook AI 宣布了一項標記數據集內圖像的新技術,以便研究人員可以了解是否使用這些圖像訓練了機器學習模型。這種驗證方法稱為“放射性”數據,可以提高訓練模型的數據透明度。

但是,這些既不是AI創新的規範也不是重點

2019年劍橋大學的一項研究表明,“按照目前的速度,人工智能的發展將繼續基於性別的歧視……人工智能系統的設計增強了限制性性別刻板印象,不關注性別平等問題的法律和政策,廣泛使用偏見數據集,而且AI工作者缺乏多樣性。”

儘管這項強大的技術存在一個未解決、心照不宣的重大缺陷,但我們仍在不斷前進、越來越多地使用該技術。

女權主義理論與人工智能的交匯帶來了具有深遠影響的新可能性。在上述研究中標題為“性別理論與人工智能實踐融合”的部分中,作者指出:“性別理論家與技術專家之間的對話將有助於實現社會平等的目標。但目前,性別理論和AI實踐‘說的是完全不同的語言’。”

簡而言之,精通性別和種族理論的研究人員沒有在寫IBM或Facebook團隊可讀的、有關消除偏見的論文。

這篇文章還強調了設計和部署這些系統的人與受這些系統影響的人員之間的隔閡越來越深。

“普通人將如何應對挑戰、適應和提供反饋,這對於這些系統的積極發展至關重要嗎?”研究人員問。他們繼續說:“我們必須考慮‘人工智能對社會塑形’的重要性,這將包括與用戶一起參與設計研討會,並讓他們參與如何使系統對他們有益的討論中。

真正的創新是一種有潛力改變世界的創新,比如未來的人工智能——它不僅可以複製人類的偏見,而且可以糾正它。

技術企業家、開發人員和投資者以大膽而出名,但也許他們的格局還不夠大。當天交付的程序包、了解我們的日歷的虛擬助手或知道我們想聽什麽歌的App無法解決我們面臨的最緊迫的問題。

在創新方面大膽思考意味著對重大社會問題直言不諱,例如有色人種的監禁過多,或者為什麽僅僅在社交媒體上瀏覽1小時就會導致婦女和女孩的自尊心降低。

也許我們應該構建一個以另一種科幻小說為藍本的科技未來——在那裡我們可以使用AI解決系統性歧視並減少由於根深蒂固的偏見而造成的不良決定。

對於勒古恩、巴特勒、哈拉維而言,技術和社會的包容性(或缺乏包容性)是主要關注焦點,也是反烏托邦與烏托邦之間區別的症結所在。

為了追求更好的技術和更美好的世界,讓我們也應將包容性作為AI敘事的重點。

獲得更多的PTT最新消息
按讚加入粉絲團