每日最新頭條.有趣資訊

Jeff Dean:一年開源12款工具,谷歌AI原則落地生根

新智元報導

編輯:元子

【新智元導讀】自從谷歌宣布AI原則開始,已經過了一年時間。如今Jeff Dean和Kent Walker對原則獲得的成果做了匯報。分享他們工作的最新消息,包括內部教育、工具和研究、評估流程、以及外部合作等,進一步驗證了該原則有助於指導人工智能在研究和產品中的道德發展和使用。

人工智能已經深入到生活中的方方面面。每天,我們都會看到人工智能通過幫助來自世界各地的人們,為我們的生活帶來積極的變化。

例如,幫助放射科醫生檢測肺癌、提高印度農村的識字率、保護瀕危物種等等。甚至來說,人工智能還深入到洪水預報和預測地震餘震方面的研究中,通過減輕自然災害來拯救生命。

隨著人工智能業務範圍不斷地擴展,已經觸及到我們曾無法想象的深度和廣度,與此同時也引發了圍繞公平性和隱私等話題的討論。

這個話題非常重要,需要全球社會的參與。一年前,谷歌推出了“人工智能原則”,這些原則有助於指導人工智能在我們的研究和產品中的道德發展和使用。

現在,到了檢驗效果的時候了!谷歌分享了在提出人工智能原則一年後的最新工作進展。

內部員工訓練成果

谷歌教育並授權員工了解人工智能的重要問題,批判性地思考如何將人工智能付諸實踐。在過去的一年中,成千上萬的谷歌員工已經完成了機器學習公平性培訓。

此外,谷歌還在四個辦事處試行了道德培訓,並在三大洲組織了一個人工智能道德系列講座。

工具和研究成果

在過去的一年裡,谷歌專注於分享知識、構建技術工具、更新產品,以及開發負責任、有道德的人工智能框架,以使每個人受益。

谷歌共發布了超過75篇關於“負責任的人工智能”主題的研究論文,涉及機器學習公平性、可解釋性、隱私性和安全性。同時開發、開源12款新工具。例如:

What-If是一個新工具,允許用戶在無需編寫代碼的情況下分析機器學習模型,將偏差和各種公平約束的影響可視化,並比較多個模型的性能

谷歌翻譯通過在谷歌翻譯網站上為一些性別中立的詞語提供女性和男性翻譯,來減少性別偏見

擴展了federated learning的工作,這是一種新的機器學習方法,允許開發人員訓練人工智能模型,使產品更智能而無需數據離開設備。已開源

“People + 人工智能”指南是一個關於如何構建以人為本的人工智能產品的方法和決策框架的工具包。它於5月推出,包括來自40個谷歌產品團隊的貢獻

隨著谷歌反思最新的技術構想和工作,谷歌承諾會繼續每季度更新一次負責任的人工智能實踐。

評估流程

評估流程有助於滿足人工智能原則。谷歌鼓勵所有員工考慮人工智能原則如何影響他們的項目,並且正在改進流程以確保是否新項目、新產品甚至新的交易經過了仔細考慮和評估。谷歌在考慮收益的同時還會評估如何降低風險,例如:

Cloud AI Hub

借助Cloud AI Hub,企業和其他組織可以共享並更輕鬆地訪問各種已經過訓練的機器學習模型。

介於AI Hub的大部分內容將由谷歌以外的第三方組織發布,導致難以評估人工智能原則中的所有內容。

因此,谷歌評估了圍繞發布AI Hub的道德考慮因素,例如有害的雙重使用、濫用或提供誤導性信息的可能性。

在評估過程中,團隊制定了一個處理潛在風險和有害內容的雙層策略:

鼓勵社區成員權衡諸如不公平偏見等問題。為了支持社區,Cloud AI提供資源(如包容性機器學習指南),以幫助用戶識別可信賴的內容

為Cloud AI Hub制定服務條款,特別是有關內容和行為限制的部分

這些保護措施使AI Hub的內容生態系統更有可能實用且維護良好,保證可以繼續推進AI Hub。

文字轉語音(TTS)研究論文

谷歌的一個研究小組撰寫了一篇學術論文,探討了人工智能研究中的一項重大挑戰:系統通常需要從頭開始重新訓練,擁有大量數據,甚至可以承擔稍微不同的任務。

本文詳細介紹了一種有效的文本到語音(TTS)網絡,它允許系統進行一次訓練,然後適應新的揚聲器,所需時間和數據更少。

雖然更智能的文本到語音網絡可以幫助患有語音障礙、肌萎縮側索硬化症或氣管切開術的患者,但谷歌認識到這些技術可能被用於有害應用,例如為了欺騙目的而合成某人的聲音。

最終,谷歌確定該文件中描述的技術由於多種原因(包括使其生效所需的數據質量),被濫用的可能性比較有限,來自互聯網的錄音都不能達到被濫用的要求。

此外,網絡產生的樣本與發言者的聲音之間存在足夠的差異,以便聽眾識別出什麽是真實的人聲。

綜合評估後谷歌得出結論,本論文符合人工智能原則。這項工作加強了對識別和預先製止可能的濫用的承諾。

與外部利益相關者合作

與更廣泛的社區進行持續探討,對發展具有社會責任感的人工智能至關重要。谷歌與政策制定者和技術社區合作,參加了100多個研討會、研究會議和峰會,並直接與全球4000多名利益相關者進行了接觸。

隨著人工智能的不斷發展,谷歌將繼續分享觀點,並與學術界、行業界和政策制定者合作,促進人工智能的負責任發展。

谷歌支持針對特定行業和用例量身定製的智能監管。今年早些時候,谷歌發布了《關於人工智能治理問題的觀點》白皮書,以幫助促進實施務實和前瞻性的方法。它概述了政策制定者應與民間社會和人工智能實踐者合作的五個領域,以發展人工智能的框架。

谷歌認識到,總會有更多工作要做,並將繼續與來自不同行業的領導者、政策制定者、學者和其他利益相關者合作,以解決這些重要問題,做好正確的工作,並確保包含最廣泛的觀點,使生活變得更好。

參考鏈接:

https://www.blog.google/technology/ai/responsible-ai-principles/

獲得更多的PTT最新消息
按讚加入粉絲團