每日最新頭條.有趣資訊

除了拚技術,谷歌、微軟、IBM都爭相給AI搞價值觀

曹建峰 騰訊研究院高級研究員

最近,谷歌放棄與美國軍方續簽一份涉及軍事AI的合約,並承諾提出軍事AI倫理原則。據媒體報導谷歌內部對與軍方的合作爭論非常激烈,知名科學家李飛飛就曾極力反對AI用於武器。

事實上,人工智能進入人類世界,沒有人可以獨善其身。除了谷歌,微軟、IBM、Sage、SAP、百度等科技公司亦爭相提出了其自己的AI原則,甚至成立AI倫理委員會,來舒緩外界對新興技術的擔憂,表明其發展AI的立場和態度。

凡此種種表明,在全球AI爭霸賽場上,除了技術研發和應用,建立AI價值觀已成為新賽道。

正如作者所言,“如果我們追問科技何以向善,答案必然不在技術創新本身。因為技術創新自身並不能保證廣泛的社會進步。”

從基辛格的憂慮說起

最近,95歲高齡的基辛格在《大西洋報》上刊發了一篇長文《啟蒙主義是如何終結的》(How the Enlightenment Ends),闡發他本人對人工智能的看法。[1]用他的話來說就是,面對人工智能的興起,人類社會在哲學、理智等各方面都還沒有準備好。

他回顧歷史發現,15世紀印刷術的發明極大改變了近現代歷史進程,實證的知識代替了宗教的學說,理性時代逐漸取代了宗教時代。個人見解和科學知識取代信仰,成為了人類意識的首要標準。理性時代產生的思想和行動塑造了當代世界秩序。

然而,人工智能等技術變革正在衝擊這一秩序,因為我們無法完全預料這些技術的影響,而且這些技術可能最終導致我們的世界所依賴的各種機器為數據和算法所驅動且不受倫理或哲學規範約束。

基辛格的擔憂不無道理。大數據和人工智能算法在我們的社會中扮演著越來越重要的角色:參與交易、診治疾病、輔助司法和執法、推薦個性化內容和物品,等等。

可以說,算法在塑造我們的文化,塑造我們所聽所見,塑造我們的生活,無論人們是否意識到這些變化。算法社會已然成為現實。

然而,人們擔心一個在“黑盒”中運行的算法社會在“不可解釋和不可理解”的帷幕之後固化或者加劇社會不公平。

科技公司探尋人工智能價值觀

面對社會公眾的擔憂和質疑,科技公司並未無動於衷,早已開始思考人工智能技術及其應用的社會經濟和人類健康影響,並采取措施確保人工智能有益於、造福於個人和社會,最終目的是希望人工智能在人類社會中扮演一個積極的角色,而非一個破壞者的角色。

科技公司的舉措主要體現在以下三個方面。

其一,積極擁抱AI倫理與社會研究。

如今,AI領域的一個重要的風向標就是,AI研究不僅關乎技術,更關乎技術的倫理與社會影響。跨學科、跨領域的研究在AI領域正成為一個顯著的趨勢。

華人AI科學家李飛飛是主要倡導者之一,她認為現在是時候把AI與社會科學、人文科學結合起來,研究AI對社會、法律體系、組織、民主系統、教育和道德的深遠影響。[2]這是科技企業負責任研發與創新(responsible research and innovation)的體現。

其二,提出人工智能價值觀。

AI研發和應用需要遵循什麽樣的倫理和價值原則,是各界都在努力探索的話題。

歐盟、英國等致力於達成國家層面、地區層面和國際層面的人工智能倫理準則,FLI(即未來生命研究所,主導提出了“阿西洛馬人工智能原則”)、IEEE等希望推動行業層面的人工智能倫理共識,谷歌、微軟等科技公司則紛紛提出企業層面的人工智能價值觀以贏得公眾和公眾的信任。

其三,成立AI倫理委員會。

對於科技公司而言,宣布成立AI倫理委員會似乎是應對人工智能帶來的各種負面問題的最輕易做法。然而,能夠在AI研發和應用中發揮價值,才是AI倫理委員會的最大價值,而這需要行業共識,比如行業最佳實踐。

科技向善更在技術之外

對於這一波AI發展浪潮,DeepMind起到了導火索的作用。

從擊敗世界頂級圍棋棋手李世石的AlphaGo,到舉世無對手的Master,再到不依靠任何人類經驗就能擊敗AlphaGo的AlphaGo Zero和無師自通掌握多種棋類遊戲的AlphaZero,DeepMind在短短一兩年時間讓深度學習、人工智能等概念家喻戶曉。再加上一些名人的大膽預言和眾多媒體的各種炒作,社會公眾的焦慮情緒一時間被引爆了。對新技術的擔憂和疑慮再一次成為社會各界共議的話題。

隨著其AI技術的應用從遊戲領域延伸到醫療等產業領域,被谷歌高價收購的DeepMind在應對AI的倫理與社會影響上並未無動於衷。

2017年10月3日,DeepMind宣布成立人工智能倫理與社會部門(DeepMind Ethics& Society),目的在於補充、配合其AI研發和應用活動。[3]

DeepMind認為,AI必須遵循最高的倫理標準以實現其對世界的巨大好處。技術並非中立,沒有價值觀。技術人員必須負責任地應對其技術研發和應用活動的倫理和社會影響。

如果我們追問科技何以向善,答案必然不在技術創新本身。因為技術創新自身並不能保證廣泛的社會進步。

這部分地解釋了為什麽DeepMind成立這個新部門。新部門身兼雙重目的:一方面,幫助技術人員將倫理付諸實踐;另一方面,探索人工智能的現實世界影響並幫助社會預測、控制人工智能的影響,以便人工智能技術能夠兼顧每個人的利益。新部門確定了五大核心原則和六大研究主題,如下圖所示。

核心原則

研究主題

社會福祉:AI應服務於全球的社會和環境福祉,幫助建設更公平、更平等的社會,被用來改善人們的生活並將他們的權利和福祉置於核心位置。

隱私、透明與公平:比如在利用數據過程中如何平衡個人與社會,如何理解並應對AI系統和數據中的偏見,AI系統需要什麽形式的透明性,等等。

嚴格與循證:當研究AI的社會影響時,DeepMind致力於維持最高的學術標準。

經濟影響:包容與平等:比如AI對勞動力市場的影響,AI將如何影響社會中不同經濟群體的收入從而影響社會不平等,如何預測AI的社會和經濟影響並作出回應。

透明與開放:DeepMind始終對合作夥伴和所資助的項目保持透明,絕不試圖影響或預先決定所資助的研究的結果。

治理與可責性:比如如何確保私營部門使用AI符合公共利益,如何跟上AI技術發展步伐,如何規製AI,AI系統需要什麽樣的安全標準。

包容與跨學科:DeepMind力圖在研究中反映最廣泛的聲音,融合不同學科以便囊括多元的視角;DeepMind承認AI帶來的問題不限於技術領域,且只有盡力吸納不同的意見和知識才能被解決。

管理AI風險:濫用和意想不到的後果:AI系統可能具有產生意外後果或失靈的風險,可能被用於不道德的目的,因此需要研究AI可能帶來的新的社會風險,如何規製完全自主武器,如何以安全且道德的方式實施AI。

合作與包容:作為有望影響全社會的技術,AI必須對全社會負責並由全社會塑造;DeepMind致力於支持關於AI的公共和學術對話,通過在研發人員和為新技術所影響的人之間建立持續性合作來確保AI對所有人有益。

AI道德與價值:比如如何確保AI作出的推薦或決定符合倫理規範和價值,如何將人類價值嵌入AI系統。

AI和世界的複雜挑戰:AI技術可被用來幫助人們解決氣候變化、醫療保健等全球性難題,這需要各方共同努力。

人工智能價值觀引領技術創新及應用

相比谷歌和DeepMind的務實,微軟的務虛成分更多一些,但至少表明了其發展人工智能的立場和態度。

如前所述,基辛格認為需要一套倫理和價值體系來約束人工智能的發展,某種程度上代表了各界的共識。微軟則從企業層面踐行這一思路。雖然微軟采取了多種方式對外闡釋其人工智能原則,但這些原則具有內在的統一性,具體如下圖所示。

微軟

2016年,微軟CEO納德拉提出6項AI原則:AI必須被設計來輔助人類;AI必須是透明的;AI必須在最大化效率的同時,尊重人類尊嚴;AI必須被設計來實現智能化的隱私保護;AI必須具有算法可責性,以便人們可以彌補意外出現的損害;AI必須防止偏見,確保恰當、有代表性的研究,以便錯誤的啟發法不被用來歧視。[4]

微軟AI部門(Microsoft AI)認為,人工智能技術應當遵循4項原則:(1)公平,人工智能必須在最大化效率的同時維護人的尊嚴並防止歧視;(2)可責性:AI必須具有算法可責性;(3)透明:AI必須是透明的;(4)倫理:AI必須輔助人類,並實現智能化的隱私保護。[5]

2018年1月,微軟發布《計算化未來:人工智能及其社會角色》(The Future Computed: Artificial Intelligence and its role in society)一書,闡發6項AI原則:(1)公平,AI系統應當公平對待每個人;(2)可靠性,AI系統必須安全可靠地運行;(3)隱私,AI系統必須尊重隱私;(4)包容性,AI系統必須賦能每一個人並使人們參與其中;(5)透明,AI系統必須是可理解的;(6)可責性,設計、應用AI系統的人必須對其系統的運行負責。[6]

在微軟之外,其他科技公司如IBM、Sage、SAP、百度等亦提出了其自己的AI原則。就在最近,谷歌放棄與美國軍方續簽一份涉及軍事AI的合約,並承諾提出軍事AI倫理原則。[7]

然而,國內外關於人工智能倫理原則的探索在某種程度上是割裂的和分散的,不足以形成廣泛的行業共識和最佳實踐。將科技公司各自自發形成的AI原則轉變為行業廣泛認可的共識並用以形成對AI創新及應用的倫理約束,AI價值觀才能發揮其作用。

AI倫理委員會能幹啥?

AI倫理委員會並不是一個新概念。早在谷歌收購DeepMind之時,其就承諾建立一個AI倫理委員會(AI ethics board)。然而在那之後,這一委員會就始終是一個謎團,無論是谷歌還是DeepMind都從未對外披露過關於這個委員會的一丁點資訊。

因此,對於這個委員會所可能發揮的作用,人們幾乎一無所知。對互聯網行業和社會公眾而言,所謂的AI倫理委員會似乎就是一個雞肋。

微軟在其《計算化未來:人工智能及其社會角色》一書中透露其已經成立了一個AI倫理委員會AETHER(AI andEthics in Engineering and Research Committee),確保將其奉行的6項AI原則融入AI研發和應用。

據其說法,這個委員會作為微軟的內部機構,囊括了工程、研究、谘詢、法律等部門的專家,旨在積極推動形成內部政策並應對潛在的問題。

該AETHER委員會的主要職責是,制定能夠作用於微軟AI產品和方案之研發和應用的最佳實踐和指導原則,幫助解決從其AI研究、產品和用戶互動中產生的倫理和社會問題。

然而除此之外,沒有關於該委員會的其他資訊。不透明似乎為AI倫理委員會的雞肋性質多增加了一重原因。

但據報導,今年4月微軟曾出於倫理方面的考慮而放棄了一些潛在的交易。之所以放棄這些交易,可能是因為負責審查潛在濫用的AETHER委員會起了作用。這似乎表明AETHER委員會會基於個案進行倫理審查。

今年5月,在經歷了引起軒然大波的數據泄露醜聞之後,Facebook宣布成立AI倫理團隊,負責防止其AI軟體中的歧視。從其官網可以發現,Facebook正在招聘AI政策、倫理、法律等方面的人員,表明其開始重視AI倫理相關的工作。

凡此種種表明在AI技術研發和應用之外,AI倫理已經成為科技公司的主要關切之一。一方面在加強AI倫理相關的研究,另一方面通過AI倫理委員會對AI技術、產品和應用形成倫理約束。與此同時通過對外傳遞其AI價值觀樹立良好形象。

雖然AI倫理委員會多少帶著秘密的色彩,但這不是共識性問題,而是最佳實踐問題。

共同塑造人工智能的社會角色

有人認為以機器學習和深度學習為代表的AI技術已經迎來瓶頸,新的AI寒冬將到來,但從各國對AI的重視程度來看,這一波AI浪潮的巨大價值還遠沒有實現,AI技術的產業化正待加強。在AI技術的加持下,我們正在步入機器人社會。

人們常常提及人工智能的學習能力、自主能力和適應能力。這意味著從人機互動的層面來看,用純粹的被動工具來刻畫人工智能已經不恰當了,至少已經不能完全涵蓋人工智能了。

在這個意義上,我們需要積極塑造人工智能的社會角色,使其效益最大化,威脅最小化。因為人工智能的濫用和意外後果可能威脅數字的、物理的和政治的安全。

總之,人工智能進入我們的世界,參與人類社會事務,沒有人可以獨善其身。因此,需要社會各界共同塑造其社會角色,以共同分享其好處,防範其危險。

政府、企業、社會機構、行業組織、社會大眾等社會各界需要共同參與,在這樣一種多利益相關方的模式之上,人們才能最大程度地理解並控制人工智能的倫理和社會影響,在人類社會進步和技術創新之間實現協同效應。

[1]https://www.theatlantic.com/magazine/archive/2018/06/henry-kissinger-ai-could-mean-the-end-of-human-history/559124/

[3] https://deepmind.com/applied/deepmind-ethics-society/

[4]http://www.slate.com/articles/technology/future_tense/2016/06/microsoft_ceo_satya_nadella_humans_and_a_i_can_work_together_to_solve_society.html

[5] https://www.microsoft.com/en-us/ai/our-approach-to-ai

[6] https://blogs.microsoft.com/blog/2018/01/17/future-computed-artificial-intelligence-role-society/

[7]https://www.theverge.com/2018/5/30/17408446/google-ai-guidelines-weaponry-military-pentagon-maven-contract

騰 研 識 者 計 劃

傳播常識,尋求共識。

這是騰研識者計劃的初心與目標,也是我們騰訊研究院對研究這項嚴肅而重大工作的再定義。

傳播常識,我們不僅需要傳統意義上嚴謹沉穩的鑽研者,更需要將高深理論翻譯解釋得簡潔有趣的分享者和連接者。

尋求共識,意味著我們需要打破學科、領域、產業與學術的邊界,打破資訊繭房、知識結構、數據孤島等種種壁壘,讓更多人參與思想的討論與砥礪。

我們希望讓學術更通俗,讓思想更大眾。

我們在找尋這樣一波學者 ,能把各種難懂的知識說得簡潔、有趣。

如果你恰好氣味相投,請加入我們。

自薦方式

請將你“傳播常識,尋求共識”的意向和文章發送到我們的郵箱

[email protected]

面向群體

希能夠靈活運用書本上知識來處理工作、生活問題的人。

希望能夠有獨立思考能力與跨界思維的人。

請相信,我們要教你的不是學術理論,而是如何利用知識更好的去生活。

本期識者

曹建峰

騰訊研究院高級研究員

中國互聯網協會青年專家

AI&法律雙棲青年學者,密切關注前沿科技的法律人。始終堅持提供有深度、有溫度、有態度的跨界思考和觀點。

重點關注領域:法律科技、AI治理與倫理、人工智能&法律交叉領域、數據政策、網絡知識產權

?[email protected]

過往文章↓↓↓↓↓↓

獲得更多的PTT最新消息
按讚加入粉絲團