每日最新頭條.有趣資訊

UCLA:最先進DCNN已超越人類,識物方式與人腦不同

新智元報導

來源:SingularityHub

編輯:三石

【新智元導讀】近期,加州大學洛杉磯分校的研究人員利用深度卷積網絡(DCNN)在對象分類方面取得了較大的突破,但他們還發現,AI與人類識物的方式是完全不同的:人類更傾向於根據物體的全局資訊進行分類,而機器卻對物體的局部資訊敏感。

識別,是人類智能的重要組成部分。如果機器能夠比人類更快速的做到識別,其意義將是非常深遠的。

然而,人類和機器識別事物的方式截然不同

拿上圖舉例,對於圖(a)來說,人類能夠很快分辨出是一隻熊,在速度和準確性方面都遠超於機器;但是對於圖(b),機器算法能夠將其歸類為熊,而人類可能看上半天都無法識別是什麽。

雖然目前在通過機器算法識別事物方面已經有了一些突破性進展,但即便是最先進的算法、技術,也可能認錯事物:例如將電視機中的靜態畫面或者抽象的圖畫,誤認為是真實世界中的事物。

這些困難很大程度上是難以消除的,因為我們對這些神經網絡如何“看”和“識別”事物沒有很好的理解。

最近,加州大學洛杉磯分校的研究人員在PLOS computing Biology上發表了一篇文章,這項研究正在測試神經網絡,以了解它們的視覺極限以及電腦視覺和人類視覺之間的差異。

論文地址:

https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1006613#sec001

他們提出了一種名為VGG-19的深度卷積神經網絡。這是最先進的技術,在ImageNet大規模視覺識別挑戰等標準化測試中已經超越了人類。

並且還發現:人類更傾向於根據物體的全局資訊進行分類,而機器卻對物體的局部資訊敏感

這一結果將有助於解釋為什麽神經網絡在影像識別中會犯人類從未犯過的錯誤。

識別方式不同,使得AI擅於紋理識物,弱於輪廓

在第一個實驗中,訓練神經網絡將影像整理分類,歸入1000個不同的類別。

然後呈現出只有輪廓的影像:所有的局部資訊都丟失了,隻留下物體的輪廓。

通常情況下,經過訓練的神經網絡能夠識別這些對象,分類正確率達到90%以上。

而在研究輪廓的時候,這個數字降低到了10%。雖然人類觀察者幾乎總能產生正確的形狀標簽,但神經網絡似乎對影像的整體形狀幾乎不敏感。

當研究人員試圖讓神經網絡對他們已經識別出的玻璃雕像進行分類時,出現了一個特別有趣的例子:當我們很容易識別水獺或北極熊的玻璃模型時,神經網絡將它們分別歸類為“氧氣面罩”和“開罐器”。

神經網絡依賴於分類對象的紋理資訊,而在這個例子中這些資訊是丟失的,神經網絡無法僅通過形狀來識別對象。

研究人員發現,當神經網絡明確地被訓練用來識別物體輪廓的時候,影像輪廓的輕微扭曲就足以再次欺騙AI,而不會對人類的判定造成影響。

神經網絡似乎對物體的整體形狀不敏感,而是依賴於局部分布點之間的統計相似性,在此基礎上便有了進一步的實驗。

如果將影像打亂,使整體形狀消失,但保留了局部特徵,會有怎樣的結果呢?

事實證明,神經網絡在識別“亂序版本”物體方面要比只有輪廓的物體要好得多,也快得多,即使在人類“基本無法識別”的時候也是如此。學生們只能對37%的被打亂的物體進行分類,而神經網絡成功的概率為83%。

更明智地使用神經網絡,需先了解其運作方式

作者Kellman說:“這項研究表明,這些系統在不考慮形狀的情況下,就能從訓練過的影像中得到正確的答案。對人類來說,整體形狀是物體識別的首要條件,而通過整體形狀識別影像似乎根本不在這些深度學習系聯考慮範疇當中。”

人們可能天真地認為,由於神經網絡的許多層都是基於大腦神經元之間的連接建立的模型,而且與視覺皮層的結構非常相似,因此電腦視覺的運作方式必然與人類視覺相似。

但是這種研究表明,雖然基本架構可能類似於人類大腦,但由此產生的“思維”運作方式卻截然不同。

研究人員目前可以漸漸地了解到神經網絡中的“神經元”在受到刺激時是如何運作的,並將其與生物系統對相同刺激的反應進行比較。也許有一天,我們可以利用這些對比來了解神經網絡是如何“思考”的,以及這些反應與人類的不同之處。

但是,到目前為止,還需要更多的實驗心理學來探索神經網絡和人工智能算法是如何感知世界的。

針對神經網絡的測試更接近於科學家如何嘗試理解動物的感官或幼兒發育中的大腦,而不僅僅是開發一款軟體。通過將這種實驗心理學與新的神經網絡設計技術相結合,可能會使它們更加可靠。

然而,這項研究表明,對於我們正在創造和使用的算法,仍有很多不解之處:

它們是如何運作的;

它們是如何做出決策的;

它們與我們有何不同。

隨著神經網絡在社會、科技發展中扮演著越來越重要的角色,如果我們想要明智而有效地使用它們,深入理解神經網絡將是至關重要的——而不是只見樹木不見森林。

https://singularityhub.com/2019/01/28/can-ai-tell-the-difference-between-a-polar-bear-and-a-can-opener/#sm.00001fhnvdx7ondsoxjcvj2mlf0we

論文地址:

https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1006613#sec001

【加入社群】

新智元AI技術+產業社群招募中,歡迎對AI技術+產業落地感興趣的同學,加小助手微信號:aiera2015_2入群;通過審核後我們將邀請進群,加入社群後務必修改群備注(姓名 - 公司 - 職位;專業群審核較嚴,敬請諒解)。

獲得更多的PTT最新消息
按讚加入粉絲團