每日最新頭條.有趣資訊

曠視為何加入“開源之戰”?

燃財經(ID:rancaijing)原創

作者 | 金璵璠

編輯 | 魏佳

過去兩年裡被冷落的人工智能產品和技術,在這場疫情中被證明不是花架子。

市場基於此調整了對2020年人工智能市場規模的預測,據中國信息通信研究院統計預測數據顯示,2020年全球人工智能市場將達到6800億元人民幣,複合增長率達26.2%,而中國人工智能市場在2020年也將達到710億元人民幣,複合增長率達44.5%。

突發的疫情,加速了人工智能在醫學、疫情管控等方面的落地,但也暴露出“偏科”的問題。整體來看不難發現,AI化雖然迅猛,但是馬太效應明顯,互聯網巨頭和人工智能明星企業往往佔據資源優勢或專業性,而對於想借AI升級的企業而言,框架的產生大大降低了門檻。

不過當前主流的開源深度學習框架只剩下Google的TensorFlow和Facebook的PyTorch,且國內的開發者高度依賴國外的開源框架。

國內不少企業都意識到了這一問題,陸續拿出本土化的解決方案,百度有PaddlePaddle,華為即將開源MindSpore,昨日(3月25日),國內計算機視覺企業曠視宣布,開源基於AI生產力平台Brain++的深度學習框架天元(MegEngine)。

據媒體報導,曠視最近獲準在香港進行IPO,對此,曠視方面對燃財經回應,“在(穩步)進行中”。作為開源框架陣營裡第一家原本就是做人工智能產業應用的公司,曠視準備怎麽講這個故事?

框架讓AI去成本中心化

“雖然曠視做過的算法可以數以百計,但是場景的無限性導致市場對算法的需求也是無限的。而僅憑曠視一家公司是做不出來這麽多東西的,所以需要有好的AI基礎設施幫助曠視這樣的公司,也來幫助更多的人創造出更多的算法。”曠視聯合創始人兼CTO唐文斌在發布會上說。

事實上,在1956年以前,人工智能就已經開始孕育,但真正讓它為大眾所熟知,還是2012年前後深度學習的發展,後者的出現帶領整個行業進入了“轉捩點期”。

首先捋順一下兩者之間的關係。

人工智能(Artificial Intelligence)的目的是讓計算機這台機器能夠像人一樣思考。機器學習(Machine Learning)是人工智能的分支,也是發展最快的分支之一,就是通過讓計算機模擬或實現人類的學習行為來解決問題。深度學習(Deep Learning)是一種機器學習的方法,它的出現告別了人工提取特徵的方式,是通過在設計上借鑒人類大腦視覺信息分層處理的過程,對數據進行高層抽象的算法。

理論上,只要計算機運算能力足夠強、樣本數據量足夠大,就可以不斷增加神經網絡的層數、改變神經網絡的結構,深度學習模型的效果就會有顯著提升。

也就是說,大數據的發展促進了深度學習的崛起,深度學習的方法又最大限度地發揮了大數據的價值,兩者相輔相成。尤其是在語音識別、圖像識別這些人工智能行業首先落地的領域,深度學習因為商業落地過程中的數據反哺,帶動了算力、框架的一步步升級。

處理大量數據,需要足夠的運算能力,而近十幾年裡,計算機硬體性能的提升、雲計算、分布式計算系統的發展,就為深度學習提供了足夠的算力。

在深度學習領域,有五大巨頭,它們有各自的深度學習框架,Google有自家的TensorFlow、Facebook有PyTorch、百度有Paddle Paddle、微軟有CNTK、而亞馬遜的AWS則有MXNet……

數據、算法、深度學習框架之間的關係,簡單來說就是,做算法如同炒菜,數據是各種各樣的食材,需要清洗,分類管理,是炒菜(做算法)的原材料,而算法的訓練就像是烹製的過程,需要一口好鍋(深度學習框架)來承載。強大的算力對於做算法來說是一灶猛火,至於飯菜燒得如何,一定程度上也取決於火候的控制。上等的食材,再加上好鍋,配上猛火,就能炒出一盤好菜。

同理,標準化、流程化的數據管理、高效的深度學習框架和強大的算力才能研發出好用的算法。

其中深度學習框架的出現,大大降低了開發者入門的門檻,它是幫其進行深度學習的工具,簡單來說,就是編程時需要的庫。開發者不需要從零開始去寫一套機器學習的算法,可以根據所需,使用框架中已有的模型,直接進行組裝,但組裝方式取決於開發者;也可以在已有模型的基礎上增加層(layer),訓練自己的模型。

對於算法生產者而言,框架可以規模化生產算法,同時盡可能降低數據源成本和算力消耗(雲服務成本)。好用的開發工具,可以讓開發者在算法訓練的過程中告別手工時代,就像聯合收割機之於農民,原來十個人用鐮刀鋤頭只能收割一塊地,而自動化、現代化的收割機可以讓一個人就完成十塊地的收割

其實,雲服務的成本相對可控,另外作為人工智能算法優化中必要的數據集,當數據量越多,訓練出來的算法質量也就越高,當越來越多場景使用高質量算法的時候,產生的商業價值就越大,數據集的獲取成本分攤下來也會越低。這意味著,對於想借人工智能升級的企業而言,框架的產生可以讓人工智能去“成本中心化”。

回顧過去三四年人工智能的發展歷程,它正在加速各行各業的商業創新,逐漸滲透到零售、教育、通訊、金融、公共事業、醫療、智慧城市等領域。但不難發現AI化雖然迅猛,但馬太效應明顯,互聯網巨頭和人工智能明星企業往往佔據資源優勢或專業性。而傳統行業在人工智能落地過程中,挑戰重重,高研發投入、複雜的算法工程,成為負擔。

而人工智能領域有頂尖的科學家奮鬥在算法模型研究的第一線,也有大批廠商努力推廣標準化機器學習的算法,客觀上降低了人工智能算法的開發成本,讓各行各業的企業能夠專注於上層業務邏輯。但對於傳統企業來說,建立AI研究院、從0到1地進行算法開髮根本不現實。

AI能改變什麽?開源框架正在提供更多選項

AI會改變哪些行業,答案也許是各行各業。

儘管人工智能從2012年就因深度學習引入而開始新一輪爆發,國內人工智能領域的投資在2014年開始升溫,但那時候大多數投資機構和公眾還看不懂人工智能。

因為2016年的一場棋局(AlphaGo戰勝了李世石),人工智能正式闖入大眾視野,成為當時全球討論最熱烈的公共事件之一。投資人開始研究AI,拿著錢找AI團隊,國內互聯網界的名人都在各種會議上布道AI。算法競賽開始火熱,學校開設的人工智能、數據挖掘相關的課程被學生選爆,大批“算法工程師”湧入行業。

根據烏鎮智庫發布的報告,2014年至2016年,中國人工智能產業年度投資頻次從近100次增長至近300次,融資規模從約2億美元增加至16億美元,漲幅分別達到近3倍和8倍。

這些數字開始引發市場對行業“過熱”的擔憂。與此同時,2018年資本寒冬開始來臨,包括人工智能領域在內的投資都變得冷靜。溫度降下來以後,外界開始把焦點放在人工智能公司的賺錢能力上。

時間來到2019年,人工智能保持了十九年的融資總額飆升,在這一年急轉直下。獵豹全球智庫統計分析,自2000年以來,人工智能企業的融資數量已持續18年上漲,在2013年至2018年出現大爆發,融資金額和數量直線飆升,且2014年後這一數據還以接近50%的幅度在增長;但2019年成為分水嶺,與上一年相比,融資總金額下滑34.8%(從1484.53已下滑至967.27億),融資數量下滑4成(從737下降至431)。

這一年成為公認的人工智能寒冬年,人工智能資本市場開始趨於冷靜,人工智能產業也進入”去偽“階段,沒有核心技術卻想在風口淘金的冒險者知難而退。但回顧近幾年,人工智能被質疑的核心無非是發展不及預期。而回看上一次技術革命,改變我們人類生產生活的,不是蒸汽機本身,而是以蒸汽為動力的紡紗機、火車、輪船等,但是目前來看,深度學習遠沒有足夠多的落地方向,所謂的行業前景也難以證實

從另一個角度看這個問題,幾十年前,各大計算機廠商積極構建各自的生態系統,迎來了蓬勃的信息化革命,如今我們所處的,是以深度學習為主力的這一波人工智能浪潮。那麽既然神經網絡的應用在人臉識別等領域已經基本落地,剩下的工作應該側重於目前商用並不理想的領域,需要的人才也不再是深度學習的算法科學家或工程師,而是在業界懂得深度學習的軟體工程師、硬體工程師以及機械工程師

這就需要深度學習像編程一樣被普及,而不是束之高閣。事實上,基礎的平台和工具,也就是框架,也已由從學術界走出的Caffe、Torch和Theano作為基石,到現在產業界以科技巨頭為領導的TensorFlow們為主。

從全球範圍看,人工智能的格局還不明朗,不過玩家們主要分成三個派系。

第一類是系統應用派,典型代表是Google和Facebook,開發出了人工智能的系統級框架,比如Google的人工智能框TensorFlow、Facebook的PyTorch,且大規模投入應用。第二類是芯片派,重要玩家就是英特爾和NVIDIA,主要提供算法支持。第三類是技術應用派,目前大多數所謂的人工智能公司都屬於這一派別。

而從框架越來越對應生產、工業應用這個趨勢來看,行業正在回答“AI能為我們做什麽”的問題。

曠視為什麽加入開源深度框架之戰

深度學習框架的競爭,已經成為人工智能場上競賽的制高點。這也是為什麽總有廠商願意投入大量資源,去設計新的框架試圖解決這些缺點,更重要的是爭取深度學習的標準,借此向下對接芯片,向上支撐各種應用,拓展領地。

不過當前主流的開源深度學習框架只剩下Google的TensorFlow和Facebook的PyTorch,兩者佔據了大部分市場份額。前者在2012年前後誕生,隨後憑借性能穩定與安全牢牢佔據著工業界,Google希望通過框架開源讓更多用戶企業、用戶綁定自身的基礎性產品,芯片以及搭載芯片的雲服務,從框架向底層設施發展。後入者PyTorch通過操作簡單、靈活在學術界撕開一道裂縫,與前者也逐漸趨同。

長江商學院經濟學教授、人工智能與制度研究中心主任許成鋼在2019年初的一次分享中總結,中國在最近三年裡,關注人工智能開源套裝軟體的總數迅速上升,並在2017年秋超過了美國;但是,幾乎93%的中國研究者使用的人工智能開源套裝軟體,是美國的機構開發提供的;中美兩國人工智能研究者使用最多的套裝軟體是Google開發的TensorFlow。

開源套裝軟體,是衡量人工智能研發程度的指標。在人工智能領域,芯片代表了算力,智能框架代表了算法,算法和算力是兩大基石,如果國內的開發者高度依賴國外的開源框架,相當於被“卡住了脖子”。

類似情況在芯片領域發生過。2015年,國防科技大學主導的超級計算機“天河二號”,因為英特爾斷供超級計算機芯片,不得不打斷原定的升級計劃,直到在2018年借助中國自研的Matrix-2000 加速卡才完成升級。

國內不少企業都意識到了這一問題,陸續拿出本土化的解決方案。百度在2016年下半年開源了PaddlePaddle,華為在去年8月表示計劃在2020年Q1將MindSpore開源。3月25日,曠視宣布開源其AI生產力平台Brain++的核心深度學習框架天元MegEngine,同時將Brain++這個產品向企業用戶開放。

既然框架都是開源的,那國內科技還需要重複自研嗎?

答案是肯定的。因為人工智能不是象牙塔裡的理論,是必須面向真實場景,作用於實際業務的應用,將深度學習框架開源的科技企業,都有各自獨特的業務場景與問題。(百度)PaddlePaddle在自然語言處理方面有長足的積累,(華為)MindSpore更強調軟硬體協調及移動端部署的能力,而(曠視)天元MegEngine則強調訓練推理一體化和動靜合一,且兼容PyTorch。

開源的目的,是在商業化過程中,以一個結構化的、開放的底層系統,去同時兼容存量市場和新增需求,降低客戶和合作夥伴的使用門檻,加強企業在業務橫向拓展中的產品化能力,也是決定企業今後毛利率的關鍵

唐文斌當天表示,人工智能行業是分層的,曠視從早期計算機視覺的算法層向上,進入到了應用層,提供了如機器人作業系統河圖、城市管理作業系統等數字化中台或硬體中台,但是發現有限的算法在場景中有局限性,場景中層出不窮的新的問題需要新的算法來解決,因此團隊計劃先解決底層基礎設施建設的問題。

在去年的世界互聯網大會上,曠視發布了圍繞算法、算力和數據魔幻三俠的AI生產力平台Brain++,主要包括三部分:作為主體的深度學習算法開發框架 MegEngine ,提供算力支持的 MegCompute,提供數據支持的 MegData。

據燃財經了解,MegEngine這個框架始於曠視成立早期(2014年),是搭建Brain++的核心引擎,當時因為人工智能開發工具匱乏自己形成了一套打法,近些年伴隨計算機視覺方面業務場景的累積,不斷進化,比如引進 AutoML(Automated Machine Learning,自動機器學習)技術,讓算法訓練算法,以減少人力。

“曠視現在幾乎所有AI產品都是基於它構建。” 曠視研究院高級技術總監田忠博表示。

“我們這次開源的代碼大概有35萬行。大家可以放心的使用,包括在一些商業的場景下使用它都沒有問題。”在唐文斌的介紹裡,天元MegEngine是一個訓練推理一體化、動靜態合一的工業級深度學習框架。

“訓練推理一體化”是指,整個框架既可用於訓練又同時支持推理,實現模型一次訓練,多設備部署,避免複雜的轉換過程造成的性能下降和精度損失。

深度學習框架大致分為兩類,一類是以TensorFlow為代表的靜態深度學習框架,它更容易部署,能夠快速產出產品,是現在工業界非常喜歡的部署方式,它的性能高,佔用的資源少,但是難以調試;而學界更喜歡以PyTorch為代表的動態計算框架,因為在研究階段調試更加方便,使用起來更加靈活。田忠博展示了MegEngine框架代碼中從動態對靜態切換的情況。

到目前為止,曠視是開源框架陣營裡,唯一一個原本就是做人工智能產業應用的公司,和通用的深度框架相比,天元MegEngine更垂直於計算機視覺應用。

曠視方面表示,這是一個完全由國人自主研發,經過曠視6年真實工業場景驗證的框架。當然,天元能不能成為下一個TensorFlow和PyTorch,還需要時間給我們答案。

*題圖來源於視覺中國。

獲得更多的PTT最新消息
按讚加入粉絲團