栗子 曉查 發自 凹非寺
量子位 報導 | 公眾號 QbitAI
史丹佛有一個看臉預測性取向的AI,如同相面一般,根據面部特徵就能判斷一個人是直是彎,而且準確度喜人:
男生81%,女生74%。
研究結果一公布,網友沸騰。也有不少人懷疑:AI哪有這麽準?
凡事需得研究才會明白。有位名叫約翰(John Leuner)的少年,不止嘴上不信,身體還積極地複現了算法,要用新的數據做個試驗,看看它究竟有沒有那麽準。
成績依然不錯:男生的準確率68%,女生達到了77%。
這個結果,又引來網友們的一波激烈討論。這一次,大家的關注點不僅僅是準確率本身,還有少年在複現研究中展現出的對AI的觀察:
憑什麽說我是直男
AI到底是靠哪些線索,來判斷人類的性向?
約翰用了控制變量法,仔細觀察人臉的每個角落。
首先,他用眼睛、眉毛、輪廓、嘴巴和鼻子的特徵,單獨指導AI的預測。
實驗發現,男生的眼睛和眉毛,對AI預測性向最有指導意義,鼻子就沒有幫助;
而對女生來說,眼睛是最重要的,輪廓是最次要的。
接下來,是鬍子和眼鏡。
約翰發現,在留鬍子和不留鬍子的男生數量相同的數據集裡,AI判斷男生性向的準確度,並沒有受到影響。
眼鏡也一樣,沒有左右AI的預測。也就是說,靠刻意的偽裝來欺騙AI,並不是個好辦法。
神奇的是,就算縮小成5x5尺寸,AI的判斷依然沒有受到嚴重的影響。AUC基本保持在0.6-0.8之間,偶爾還會超過0.8 (下圖之左虛線為5x5,右為大圖) 。
所以,大概是靠氣質判斷的吧┑( ̄Д  ̄)┍。
為了做這些探索,約翰複現了一個深度神經網絡模型和一個基於面部形態學(FM)的模型,還從約會網站中抓取了50萬張照片,從中選取2萬多張,做成性別、取向平衡分布的數據集。
他用VGG-Face神經網絡,從圖像中提取鼻子、胡須、眉毛、嘴角、發際線等面部特徵,然後將照片轉換成4096個元素的特徵向量。
因為是約會網站,這些照片還會帶有年齡、性別、性取向等標簽信息。
然後作者根據面部特徵訓練了一個回歸模型來預測性取向。2017年史丹佛大學的研究就是這麽做的。當時,Kosinski教授把人臉所有相同性取向的臉合成了4張圖片:
顯然,這四張合成面部圖片之間存在著差異。Kosinski教授就此斷言,性取向通常伴隨著特有的面部特徵。
但是我們深究一下就會發現其中的問題:男同性戀的人臉合成圖顯示有眼鏡。因此算法可能是根據臉上的配飾做出的判斷。
fast.ai創始人Jeremy Howard認為,說AI無法通過照片判別性取向顯然是不客觀的,但相關性不等同於因果關係。
神經網絡只是發現面部特徵和性取向的相關性,沒有解釋這背後的原因,它只是一台識別機器。
又炸鍋的網友
和兩年前一樣,這項政治不正確的研究帶來了極大的爭議。對研究結果,國外網友提出了很多質疑。
首先,帶有偏見的數據集,必然導致帶有偏見的結果。
有網友指出,gay一般比直男更在乎自己的形象,可能會精心打扮自己。而約會網站本來就帶有強烈的目的性,用戶會精心打扮自己吸引對象。
這會導致模型不太適用於其他社交媒體的場景。
這種猜測並非毫無根據,威斯康星大學麥迪遜分校的心理學教授William Cox研究發現,同性戀確實是更傾向於在網上發布自己高質量的圖片。
之前史丹佛大學的實驗結果也證實,將模型用在Facebook圖片上時,準確率會降至52%。
另外,這套算法在5×5的圖像上也有63%和72%的正確率,說明它還能根據皮膚、頭髮顏色進行分類。
但是5×5的馬賽克基本上完全模糊掉了臉部特徵,居然也能行!這與兩年前Kosinski教授的推測相悖,更讓人懷疑結果的可信程度。
實驗數據的表示方法也讓人懷疑不夠客觀。
比如數據集中有70%是直男、30%是gay,那麽模型只要判斷所有人都是直男,對準確率也會有70%。
比方說,每1000人中有50人是同性戀。準確率91%的結果會誤認9%的直男為同性戀,也就是85人。
該算法還會將9%的同性戀者視為直男,也就是會識別出45人為同性戀。結果在130個“同性戀”中,有三分之二的人其實並不是同性戀。
約翰只是南非一個名不見經傳的學生,對他的討論尚且能控制在理性的範圍內。
而史丹佛大學的Kosinski教授就沒這麽幸運了,他的研究一經公布,就引起了極大的非議,他本人甚至收到了許多死亡威脅。LGBT團體稱他的研究是“垃圾科學”(junk science)。
在某些國家,同性戀屬於違法行為,甚至最高會被判處死刑。即使是在一些同志合法的國家,這項技術也面臨著洩露隱私的指責。
少年在自己61頁長的論文中,就提到了這類技術的隱患:
這類能檢測性取向的新技術,可能會對同性戀男女的隱私和安全造成嚴重的影響。
你怎麽看?
這項研究在遭到LGBT團體強烈抵製的同時,Kosinski教授還提出了更大膽的主張,足以讓每個人感到害怕。
他相信AI算法很快就能夠僅通過面部圖像來判斷人的智力、政治傾向和犯罪傾向。
千萬不要以為這只是臆想,以色列一家創業公司Faception已經開始出售這樣一種AI軟體,通過面相來識別恐怖分子,他們聲稱將這項技術用在11個恐怖分子身上,準確識別出了其中9人。
用AI給人看相真的靠譜嗎?
—完—
訂閱AI內參,分享有獎勵哦~
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復“招聘”兩個字。
喜歡就點「好看」吧 !