每日最新頭條.有趣資訊

別怪人工智能變壞了,其實是我們自己沒安好心

大哲學羅素很早就說過,懷有各種各樣愚蠢的見識乃是人類的通病,無論認知能力高低,凡人皆有偏見。於是,不少人開始把“糾偏”的希望寄予到人工智能身上。多數人相信,憑借科學的算法,機器人能夠做到我們人類做不到的中立和公正,成為科技時代的新包公。殊不知,雖然1+1只能等於2,數學的世界看似非黑即白,其實,數據科學家們無法擺脫的無意識偏見,也會被微妙地過濾到算法內部。

舉幾個例子吧,2016年,微軟新研發的人工智能聊天機器人在Twitter上線剛一天,就因為言論不當被公司強製下線,這款聊天機器人不但辱罵用戶,還發表了種族主義評論和煽動性的政治宣言。不僅如此,當我們搜索CEO的圖片時,還會看到機器對於性別的偏見,因為搜索結果中,白人男性的比例要比女性或其他有色群體高得多。而波士頓大學的研究人員發現,機器習慣於將“程式員”這個詞和“男人”聯繫在一起,而女人被聯繫最多的詞語,則是家庭主婦。

還有最近火起來的,幫你找到和你最像的名畫人物的谷歌app Arts & Culture,不少非白人用戶抱怨,他們的自拍,常常會和藝術作品中的奴隸、仆人聯繫在一起,同時,也有不少女性用戶,發現自己出現在了那些將女人性別化或物化的藝術作品當中。不過,谷歌的發言人表示,這要歸罪於藝術史,因為,歷史上的這些藝術作品,往往不能反應世界的多樣性,更別說政治正確了。而谷歌唯一能做的,就是努力上傳更多,不同時期的藝術作品,使得數據庫本身更加多樣。

不過,即便這是歷史遺留問題,算法不僅無法使用戶免受種族的偏見,反而有意無意的吸收學習,甚至放大了偏見,因為不管原始代碼多麽純淨,機器總是很容易複製它所看到和接觸到的來自世界的敵意和偏見。谷歌這回在影像識別方面摔跟頭早已不是第一次,前幾年,他們的影像識別技術就曾把一對黑人男女認定成大猩猩,引發極其嚴重的公關危機。MIT的研究人員喬伊.卜拉維尼(Joy Buolamwini)是一個黑人姑娘,她曾經發現自己帶著白色面具,和用本人膚色接受電腦的影像識別時,呈現的結果完全不同,卜拉維尼還講到這樣一個真實的故事,一個亞裔紐西蘭人,他的護照照片被政府拒絕,因為,電腦認為他的眼睛是閉著的,而其實,他只是眼睛比較小而已。卜拉維尼之後創辦了算法正義聯盟(Algorithmic Justice League),這個聯盟的工作方向,就是防止人類的偏見被編碼植入到軟體中。

想要解決這一問題,看來最簡單有效的辦法就是培訓程式員,這樣他們就不會無意中編寫代碼或使用帶有偏見的數據。然而,在軟解編寫階段,中立也是很難達到的,比如,Beaty.AI發現,讓機器來做選美評審的時候,人工智能系統的結果是--所有獲勝者都是白人,當開發人員意識到問題的時候,才明白,在為這台機器編寫軟體時,它根本就沒有被設計出能夠識別深色皮膚的功能。

所以,這當然不能怪人工智能,而要怪我們自己。人類自誕生以來,在演化進程中,就一直充斥著偏見,不管是出於負面情緒還是人性弱點,所有這些都會體現在人類文化中。而文化的載體就是語言,所以,所有的偏見都可以從語言和語義中找到根源。因此,為了從源頭上解決問題,佐治亞理工學院,互動計算學院的副教授Mark O. Riedl提出了一個很有吸引力的解決方案--讓機器人多讀書。他解釋說,強大而正確的價值觀是可以通過學習獲得的,文學作品是用隱式和顯式的社會文化知識編碼而成的,科學家可以在機器人中建立一個道德基礎,讓他們通過學習掌握是非曲直,從而學會在不傷害人類的情況下完成自己的工作。

不過,目前對於解決人工智能偏見的問題還多停留在討論階段,可以說,人工智能距離我們想象中的完美,還有很長的路要走。不過,人工智能開發人員至少可以更積極地發揮作用,以確保減少無意中產生的偏見。而我們每個人,更應該以身作則,在互聯網世界謹言慎行,才能創造一個由人工智能輔助下的,更美好的科技未來。

獲得更多的PTT最新消息
按讚加入粉絲團