每日最新頭條.有趣資訊

潘曉明:AI需要大數據、算法、引擎和軟體環境支撐

12月18日,由騰訊汽車主辦的2018全球汽車AI大會正式拉開大幕,近50位來自全球頂尖科技公司、汽車企業高層以及國內外學術專家齊聚北京,共同為AI與汽車產業的深度融合建言獻策。

活動現場,AMD全球副總裁、大中華區總裁潘曉明發表了主題演講,他表示:AMD認為如果新興的智能應用要取得成功,其實需要依靠四大要素的支撐:第一是大數據,第二是非常強有力的算法,第三是要有訓練和推理的引擎,第四是要有一個易於應用開發的軟體環境。

此外,潘曉明表示,AMD在自動駕駛領域還有很多功課要做,目前還是致力於把硬體和軟體平台搭建好,才能在這個領域和在整個人工智能領域,包括在汽車領域做更好的嘗試。

以下為發言實錄:

潘曉明:大家下午好!非常感謝騰訊汽車的邀請,也非常高興能夠利用這個機會跟大家簡單分享一下AMD在人工智能、機器學習方面,包括在這一領域的一些策略和思考。AMD進入到這個領域,目前還處在一個比較前期的階段,因為我們相信硬體、軟體,包括市場的確是一個非常有前景的地方。希望我這次講完以後,大家能夠有一些初步的對AMD的了解。

今天主要講三個部分的內容,第一是AMD對整個的人工智能市場的粗淺的看法,第二部分講講AMD對人工智能、機器學習甚至在汽車領域的一些策略和思考,第三部分給大家做一個簡單的實例,在汽車領域裡面基本的嘗試。

人工智能時代其實早就拉開了序幕,機器學習是其中一個非常重要的技術,的確是給了我們這一代人甚至下一代人巨大的機會和市場的潛力,所以說這個市場是一個非常長期的。而不是說今天就一定怎麽樣,而是一個非常巨大的市場,而且是要經過三五年各種技術在裡面融合互相錘煉的市場。

關於機器智能,AMD認為如果新興的智能應用要取得成功,其實需要依靠四大要素的支撐:第一是大數據,第二是非常強有力的算法,第三是要有訓練和推理的引擎,第四是要有一個易於應用開發的軟體環境。這四個部分如果做的非常好,我覺得在很多應用領域裡面,尤其是在人工智能領域會得到非常大的快速成長。

先講講數據量,因為我們已經從各個方面感受到大數據的趨勢了。舉個例子,像空客最新的A380-1000承載鋼彈1000名乘客,這個時候他已經使用了很多高端的感應器技術,飛機的機翼大概擁有1萬個感應器,這些感應器不斷隨時采集數據傳輸到系統之中。這時候如果利用機器學習把這些數據合理地進行分析,我們會得到很多全新的分析和觀察,會得到很多有趣的現象。的確,大數據是人工智能領域裡面最缺一不可的重要因素。

第二個就是算法。AI技術來到我們身邊已經多年了,實際上會回溯到上個世紀五十年代,基礎是人的想法都依賴於一系列規則,如果想讓電腦跟人一樣思考,要制定出一系列的邏輯規則,從而推出一定的結果。對深度學習我們自己的理解是什麽呢?那就是真正專注於創造出一些算法。這些算法是從訓練中得出來結論的算法,能夠真實的把現實發生中的數據做出預測。深度學習是給予電腦從訓練中學習的能力,而並非明確的程式指令,目的是創造出一個好的訓練模型,以此做出更清晰的預測。算法也起到非常重要的作用。

另外一個非常重要的就是驅動的機器智能負載的引擎到底是什麽呢?大家也知道目前的行業裡和市場中無外乎有各種不同的解決方案,的確是根據訓練和推理的不同需求,基於不同的處理及架構有很多解決方案,包括大家熟悉的CPU,CPU有很多列,有ARM、X86的CPU,GPU也有高性能GPU和其他性能的,APU是CPU+GPU的組合,還有FPGA和ASIC。所有的這些都可以用做訓練和推理的引擎,但的確要取決於真正的負載情況。最常用的, 現在目前來說是混合型的,就是CPU+GPU、CPU+FPGA,也就是加速器的概念。這些無外乎兩類的應用,一類是訓練,一類是推理。在目前的訓練中現在是GPU佔據了比較主要的作用,因為訓練對計算的要求非常大,而GPU在這方面是有非常得天獨厚優勢的。因為推理不需要那麽大的計算量,是小批量的數據,所以我們認為APU、專用集成電路和ASIC和FPGA都可以勝任這部分的任務。

剛才講了AMD對整個人工智能、機器學習包括機器智能方面的粗略看法,大致是四部分:大數據、算法、計算力、推理和訓練引擎包括軟體環境。AMD的人工智能策略是什麽呢?我們公司比較獨特,因為是在全球裡唯一一家既能做高性能CPU,又能做高性能GPU的芯片公司。這一點由於我們的位置比較獨特,所以我們在人工智能的策略基本上就分成兩大塊,一塊是硬體,硬體是利用CPU進行高性能計算和推理,利用我們的GPU為數據中心進行訓練和推理,利用我們的APU來進行邊緣推理。

軟體方面我們走了另外一個體系,創造開源的生態,提供創新與合作,一會會一一跟大家簡單分享,以此給我們所有的合作夥伴更多的機會,大家共同參與來創造開源的軟體環境。

我們11月在美國,包括11月中旬在北京真正做了一個我認為非常具有長官地位的宣布,就是我們是第一家將會推出7納米,基於第二代微架構的驍龍處理器的公司,將在2019年發布,這是我們的CPU,代號為羅馬。目前的試映片已經推給用戶去做了。

第二個,我們也同時做了另一個重要發布,把GPU用在了7納米技術,主要用在機器學習、高性能計算、雲計算這一些領域,所以這個產品叫MI60,這款也是全球首款的7納米的GPU,將增強深度學習的運算性能和運算效率。

大家可以看到,有7納米的CPU,7納米的GPU,我剛才講到7納米CPU和GPU這種加速器的概念,AMD具有得天獨厚的優勢。用7納米的CPU和7納米的GPU,通過高速互聯可以給人工智能提供非常強有力的硬體的解決方案。

剛才講了AMD在人工智能策略是兩方面:硬體和軟體,下面我簡單來談談軟體方面。我們可能跟別的友商不太一樣,實際上在三年前AMD就開始打造了ROCm,這個還沒有起很好的中文名字的產品,但是這個名字也非常容易被記住。三年前我們開始打造機器學習的開源平台,相信開源的做法有助於推動創新,並促進所有的社區合作夥伴共同參與。我相信現在目前的行業和產業都喜歡開源,因為大家可以一起創新,不會被封閉的系統所限制。目前發布了ROCm2.0版本,增強了對新的機器學習框架的支持,也更新和優化了數學庫,如今上傳到Linux內核發行版。所以在Gihub上,你可以看到所有的Linux+ROCm的解決方案。從這張圖大家可以看到最底層GPU、CPU、APU,包括所有不管是AMD,還是哪一家的產品。再往上是ROCm和中間件,AMD採用的策略這些東西都是開放的,希望所有的夥伴來一起去開放、一起去做,這樣在上面是Framework框架,再往上就是應用軟體。

所以大家想想,我們的策略是出色的7納米CPU+GPU,再加上出色的開源社區,大家可以想象未來的兩三年開放的系統將會有更大的空間,能夠滿足各種的AI應用。

這張圖主要講了現在目前我們的ROCm平台得到了開源社區的全域用戶,很多的開源框架,包括編譯去和開發工具的廠商都在裡面。我們最近也跟百度的Paddle Paddle合作,讓他們把現在的開源框架在AMD上運行,目前的社區正在不斷壯大。

剛才我講了AMD的第二部分,就是我們自己對人工智能方面的策略,也就是硬體和軟體的部分。

最後跟大家分享一個應用案例,就是跟highwai的公司,用AMD的CPU和7納米的GPU如何幫助自動駕駛車輛做機器學習。大家知道訓練自動駕駛車需要收集很多資料,如果全都是靠著真正的駕駛來收集資料是太慢了,效率也非常低。因為即使收集了1000萬公里的資料,可能也就是一兩起的車禍,這種還是遠遠不夠去滿足自動駕駛需要收集的大量部署。這時候必須通過模擬產生大量的數據,也可以產生一些極端的案例,用這些數據去訓練自動駕駛。我們目前跟highwai公司一起合作,大概做了模擬、訓練、驗證、部署四個部分。

模擬就像玩駕駛的遊戲,在各個城市收集數據,可以每秒30次的頻率來記錄這些汽車看到和感知到的每個場景中的每個細節,比如汽車、行人和每個對象的速度、姿勢,每分鐘可以收到30GB的數據。在模擬階段產生收集數據的時候的確需要大量的系統帶寬和高效率的CPU、GPU內核。拿好了的這些模擬數據再放到GPU的訓練神經網絡進行訓練,最後是進行驗證,驗證成功後才能真正被部署到現實中。這是整個目前在汽車領域裡的四個步驟。

在自動駕駛領域還有很多功課要做,但是的確從AMD的角度來講,目前我們還是致力於很好地把硬體和軟體平台搭建好,在這個領域真正在整個人工智能領域,包括在汽車領域做更好的嘗試。

總結來講,我們現在在人工智能解決方案有這麽幾個優勢。由於我們是唯一一家能提供高性能CPU和高性能GPU的公司,所以我們有一些獨特的優勢,比如說:

第一,高帶寬芯片互聯用我們的CPU和GPU通過中間的獨特的技術,高速的互聯CPU和GPU。

第二,採用了HBM的高帶寬的顯存,這對於機器學習是非常重要的。

第三,我們是非常強有力的多核心,像7納米的羅馬大概是64核的CPU。

第四,開放的軟體生態環境,所以有非常棒的硬體解決方案加軟體生態環境,這些搭建起來相信能夠滿足於在人工智能、機器學習各方面的應用,包括汽車的應用。

謝謝大家!

獲得更多的PTT最新消息
按讚加入粉絲團