每日最新頭條.有趣資訊

不識字也能翻譯:谷歌AI直接用音頻翻音頻,不用先轉文本

翻栗子 發自 凹非寺

量子位 出品 | 公眾號 QbitAI

在我們的世界裡,谷歌翻譯是這樣的:

一直被調戲的翻譯娘

在谷歌的世界裡,谷歌翻譯是這樣的:

西語英語:你不問,就不會知道了

請注意,視頻裡的文字只是為了便於觀賞,才存在的。

而AI在翻譯語音的時候,不把西語的音頻轉成文本,也不生成任何英語的文本,直接產出了英文音頻。和標答一字不差。

這是谷歌團隊的最新成果,想法大膽而有效。

仿佛在雙語環境裡出生的小朋友,還沒識字,就能把爸爸說的話翻譯給媽媽。

怎麽會不用看文本?

這個翻譯模型,名字叫做S2ST(全稱Speech-to-Speech Translation) 。

不看文本只靠聽,背後的原理是把一種語音的聲譜圖(Spectrogram) ,映射到另一種語音的聲譜圖上

那麽,聲譜圖什麽樣?

下圖就是 (西語) “你好麽,嘿,我是威廉,你怎麽樣啊?”的聲譜圖。

橫軸是時間,縱軸是Mel頻率

然後是目標,英文的聲譜圖。

AI只要從大量的成對數據裡,學懂英文和西語的聲譜映射關係,就算不識別人類說的是什麽字,依然能當上翻譯員。

當然,一個完整的翻譯模型,並沒有上面說的這麽簡單,它由三個部分組成:

一是基於注意力的序列到序列 (seq2seq) 神經網絡。就是下圖的藍色部分,它負責生成目標聲譜圖,這只是第一步,還不是音頻;

二是一個聲碼器(Vocoder) 。下圖的紅色部分,它會把聲譜圖轉換成時域波形 (Time-Domain Waveforms) ,這已經是帶有時間順序的正經聲波了;

三是個可選的附加功能,原本說話人的編碼器。綠色部分,經過它的加工,翻譯出的英文,和原本的西語,聽上去就像同一個人發出來的。

當然,藍色部分還是主角。

裡面的編碼器 (左) ,是8層雙向LSTM堆起來的;而解碼器 (Spectrogram Decoder) ,團隊說要選4-6層LSTM的,深一點效果比較好。

成功了

模型是用人類自發的對話 (比如打電話的語音) 端到端訓練出來的,一起來看看成果吧。

第一題,短語。“克蘭菲爾德大學的新員工”,翻譯和標答一字不差。

原文:nuevos empleados de Cranfield University

標答:New hires at Cranfield University

第二題,句子。“看看這個國家上下,你看到了什麽”,依然和標答一致。

原文:Por lo tanto, mirar alrededor del país y lo que ves.

標答:So, look around the country and whatdoyou see?

對手表現怎樣?借助轉換文本來翻譯的AI,缺了個“do”字:

第三題,帶從句的句子。“我的表 (堂) 兄弟姐妹們小的時候,我照顧過他們也教過他們,有過一些這樣的經歷。”

原文:Tengo cierta experiencia en cuidar y ense?ar a mis primos cuando eran jóvenes.

標答:I’ve got some experience in looking after and teaching my cousins when they were young.

照顧(TakingCare of) 有缺失,其他部分對比標答是完整的。

再看對手,“照顧 (Care) ”和“教 (Teach) ”都用了動詞原形,語法不是很嚴格:

肉眼看過之後,再讓S2ST先轉換文本再翻譯的AI對比一下BLEU分

在“Conversational”大數據集上,S2ST的BLEU分比對手差了6分:42.7比48.7。

的確還有一些差距,但畢竟對手依靠了文本,算是開卷考了。

這樣說來,直接跳過文本的想法,雖然聽起來有些飄,但結果證明是可行的。

所以,谷歌團隊說,大有可為啊。

論文傳送門:

https://arxiv.org/pdf/1904.06037.pdf

更多樣本傳送門:

https://google-research.github.io/lingvo-lab/translatotron/

活動報名|多模態視頻人物識別

加入社群

量子位AI社群開始招募啦,量子位社群分:AI討論群、AI+行業群、AI技術群;

歡迎對AI感興趣的同學,在量子位公眾號(QbitAI)對話界面回復關鍵字“微信群”,獲取入群方式。(技術群與AI+行業群需經過審核,審核較嚴,敬請諒解)

喜歡就點「好看」吧 !

獲得更多的PTT最新消息
按讚加入粉絲團