每日最新頭條.有趣資訊

過去一年,全球關於人工智能倫理有了這些思考

作者 |王靜姝 騰訊研究院助理研究員

在一月底結束的2019年國際消費電子產品展會上(CES 2019),LG總裁兼首席技術官帕克(I.P.Park)發表了關於AI如何促進“自我進化”產品的主旨演講。“人工智能與倫理”的討論,成為了這場原本與嚴肅話題不太相關的消費技術盛會的序幕。

從自動駕駛到智能家居,無論是討論頻率還是技術創新,人工智能都已經滲透在人們追求更好生活的方方面面。

據麥肯基估計,到2030年,人工智能會在全球範圍內創造近130億美元的額外經濟產值,佔世界GDP增長的1.2%[1]。同時,各國政府也注意到這一技術對人類社會的深入,在加拿大一家國際智庫發布的《建設人工智能的世界——國家和區域人工智能政策報告》[2]中,全球已有18個主要國家發布了關於人工智能的針對性戰略和政策,包括科技、法規、倫理、社會治理等多個方面。

然而,隨著人工智能的井噴式發展,關於人工智能為整個社會帶來的影響,也從科幻作品中走進現實的桌面。

撇開科幻作品中炫酷而強大的終結者不談,僅僅簡單的自動駕駛技術,當真正投入使用後也會面臨“電車悖論”的困擾。人類社會生活的複雜性在於其不僅追求工作的效率和精確,更追求選擇的公正與合理。

隨著技術的不斷發展,當人工智能真正嵌入人們的日常生活,這些倫理選擇便也真實地擺在面前,成為人工智能設計者們需要解決的問題。

那麽具體來看,人工智能究竟引發了哪些討論?我們需要關注哪些問題呢?在過去的一年裡,大家關注了這些問題:

人工智能不應該傷害人

早在機器人誕生之時,人們便為這種本為幫助人類而設計的機器制定了倫理規範。上世紀50年代,著名科幻小說家阿西莫夫便在《我,機器人》一書中提出了“機器人學的三大法則”。

法則第一條便規定:“機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管”。保護至高的人類生命是一切行動的前提。從字面上看,這應是一條被普遍承認與遵守的規則,但現實並非科幻作品中那樣簡單。

2018年4月,谷歌與美國五角大樓達成了Maven項目的合作,通過機器學習技術和先進的計算機視覺技術,在無人機拍攝的視頻中辨別物體,自動探測和識別38種類別的目標,從而減輕軍事分析員的工作負擔。此外,該技術也可以用於追蹤目標人員的行動。

此舉引發眾多項目相關員工辭職,也有將近4000名員工簽名請願谷歌取消該項目。6月,谷歌發表聲明,強調其不會進行任何武器開發或以傷害人類為目的的人工智能研究,但項目並未終止。最終在員工們“拒絕為軍方研究人工智能”的壓力下,谷歌最終確認該項目2019年3月到期後將不再續約。

這場在人工智能界由普通員工發起的“反戰運動”的勝利提醒我們——毫無疑問,人工智能技術有極為廣闊的應用領域,在技術高速發展的今天,人形“終結者”並不會出現,但可能會以另一種形式悄悄到來。

然而,技術發展需要倫理與規則的限制。畢竟,正是這些最基本的規製保持著人類社會在不斷的摩擦、碰撞與衝突中的正常前行。

也許人工智能的去武器化已經在社會大部分達成共識,谷歌的項目也在世界眾多和平主義者的聲討中敗下陣來。

然而,除了自動化武器這種“主動傷人”之外,當人工智能深入到我們生活中不同場景時,一些人工智能“被迫傷人”的場景如何處理也成為了重要的議題。

自動駕駛便是一例。

2018年10月,麻省理工學院在Nature上發表了一篇將自動駕駛牽涉入“電車難題”的論文[3]。

研究人員通過其開發的“道德機器”(moral machine)向來自200多個國家的200多萬在線參與者提出了一系列自動駕駛汽車在緊急情況時面對不同生命如何選擇的問題。

結果顯示了人類間選擇的多樣性——不同群體的選擇偏好有很大不同,如一些集群傾向於保護動物,一些集群傾向於保護老人。這些特殊性可以在人類的不同集群中出現,但對於需要提前規定好程序,按唯一特定模式選擇的自動駕駛汽車,要麽少數人的偏好被無限放大,與大多數產生衝突,要麽少數人的偏好在多數人的壓倒性優勢下完全湮滅

如果按照研究的普遍性結果制定自動駕駛規則,那麽多數人與青年人會被保護,而少數人與老年人則被犧牲。可以想象,若如此規則被全面推廣,老年人是否還敢出現在車水馬龍的街頭。

“一方面,我們希望為公眾提供一種簡單的方式進行重要的社會討論,”媒體實驗室媒體藝術與科學副教授Iyad Rahwan說。 “另一方面,我們希望收集數據,以確定人們認為哪些因素對於自動駕駛汽車在解決道德權衡方面的重要性。”討論並未結束,人們也在不斷的討論中進一步認識自動駕駛的真正影響,並為其制定規則。

人工智能不應該歧視人

在麻省理工學院的調查中,除了對生命的選擇,更值得關注的是人工智能算法對人類偏好差異性的放大。若不注意,這些不同很有可能通過算法開發被擴大為偏見,並實在地影響人們的選擇。

比如亞馬遜的人工智能雇員系統。這一試驗性的雇員系統通過對之前員工簡歷的機器學習,在實際操作中會給女性技術員的簡歷評分較低。在無數爭議後,亞馬遜終於在2018年11月關閉了這一系統。

就在亞馬遜關閉人工智能簡歷篩選系統的同一個月,八名美國國會議員向亞馬遜的CEO寄出了聯名簽名信,抗議其人臉識別系統也存在種族歧視的問題。儘管這次亞馬遜頂住壓力給予回擊,但來自全世界的平權者仍不買账。雙方的爭吵尚未停止。

通過大量、迅速且精確的重複計算,機器學習能夠解決效率問題,在許多領域都大有發展空間。但在高效的同時,細觀人類提供的機器學習的樣本,在摒除誤差、尋找規律時,自然以樣本中的多數為樣例,運用到現實時,便成為人們所指責的“歧視”。這並非開發者故意的行為,也並非人工智能本身的問題。

只能說,在人類歷史的發展中,人工智能幫我們指出了曾經沒有意識到的問題,當我們堅信人工智能應當為所有人服務時,我們需要思考如何克服曾經的偏見,這是人與人工智能共同的任務。

人工智能不應該“操縱”人

除了已有數據的不同偏好,在人工智能的數據與推薦方面,人們也有許多擔心。

當人工智能不斷展示其強大的數據處理能力時,許多評論者認為人工智能是中心化的,由於極強的數據攫取能力,巨大的信息不對稱帶來社會的恐慌。2018年的Facebook隱私洩露事件將數據安全推到了風口浪尖。對人工智能和算法的不信任也上升到從未有過的高度。

同時,算法推薦類產品也被重新審視。

一方面,算法推薦背後強力的數據抓取與分析令人們覺得自己在人工智能面前仿佛赤身裸體,沒有一點隱私;另一方面,算法推薦,一味滿足人們喜好造就的“知識繭房”也令人們恐懼人工智能強大到可以操控人類的“自我意識”。

2018年12月,谷歌旗下的視頻社交網站YouTube又被指出向客戶推送極端主義、假新聞等內容。YouTube立刻道歉並刪除了視頻,但如何糾偏算法推薦系統各方討論的問題。

人類的道德觀,是在歷史漫長的社會實踐活動中天然形成的,而對於沒有經歷過這些社會實踐的計算機來說,並不能自然形成道德約束。

但顯然,算法需要價值觀已經成為人工智能界的一種主流共識。

要將符合人類價值的約束加於算法中,公開算法只是第一步,如何通過社會討論確立規則、通過想象力和創造力設計更符合人類倫理價值的算法,還需要在人工智能技術開發的路上不斷探索。

人工智能不應該完全取代人

如果說算法使消費者與人工智能之間出現了裂痕,那麽人工智能在生產端對人的碾壓性優勢則帶來更多恐慌。從機械臂到機器人,從自動化生產到人工智能寫新聞,能夠替代人類勞動的人工智能產品層出不窮。

2016年12月,美國白宮發布了《人工智能、自動化與經濟報告》[4],指出人工智能生產正在顛覆勞動力市場。在當時這似乎還略顯“多慮”,但之後的這兩年中,人們也切身感受到人工智能給勞動力市場帶來的壓力。

2019年初,布魯金斯研究中心的報告指出[5],大約3600萬美國人面臨被人工智能替代的危險,不僅在農業和製造業,服務業也受到威脅。但也有經濟學家指出,自動化生產與服務能夠創造新的職位,同時,一些對創造力要求很高的職位也並不能被替代。

事實上,每一次技術的飛躍與變革,都會帶來相應社會的陣痛,但社會總能在陣痛中實現轉型。或以教育提升個人素質,躋身於更具挑戰性也更具價值的工作中;或通過人工智能創造新的職位,實現勞動轉型;或加入創業創新大潮,為社會創新注入更多活力。

我們看到,這些富有創造力的人們,正是在“抗爭”人工智能的過程中與其合作,在犧牲中實現社會的不斷向前。

警醒而不忘科技向善之初心

面對技術帶來的問題與社會討論,治理者與實業家們都以自己的方式給出了回應。

在美國2019年的國防部財政預算中,人工智能國家安全委員會第一次出現。委員會聘請包括谷歌、微軟在內的人工智能巨頭公司的專家,專門評估人工智能、機器學習相關的技術創新,保證對其的運用在法律框架內,並符合倫理價值。

無獨有偶,2018年12月,歐盟的52位各領域專家發布了《人工智能發展和運用的倫理指導》[6],希望在倫理方面對人工智能技術進行規製。他們認為,人工智能首先應當尊重基本人權、倫理規則和社會價值,即追求“倫理目標”;在保持技術創造性的同時,需要反思和加強人工智能的可靠性。

在2018年的人工智能發展規劃中,英國也建立了數據倫理中心,試圖管理難以捉摸的大數據。

政府以外,各大公司也主動發出自己關於人工智能的倫理倡議,以保證人工智能的合理發展。在2018年世界移動通信大會上,IBM Watson首席技術官Rob High提出了IBM人工智能開發的三大原則——信任、尊重與隱私保護。

同時,微軟倡議政府為面部識別技術制定規製,並提出了六大原則——公平、透明、責任、無歧視、知情同意與法律控制。深陷數據洩露旋渦的Facebook也在2019年初開始行動——拿出750萬美元與慕尼黑技術大學合作建立了人工智能倫理研究所,希望在人工智能的研究中引入更多倫理思考。

騰訊董事會主席馬化騰在2018年世界人工智能大會上提到的人工智能的“四可”理念,也對人工智能的各個問題做出了完整的回應。“四可”翻譯為“ARCC”(Available, Reliable, Comprehensible, and Controllable,讀作ark),即未來人工智能是應當做到“可知”、“可控”、“可用”和“可靠”。

騰訊希望通過“四可”這樣的一個道德框架開始,去幫助AI開發者和他們的產品贏得公眾的信任。這也正是如今全世界人工智能開發者追求的目標。

騰訊公司高級副總裁郭凱天在第二屆科技向善論壇上談到:“在數字社會的背景下,從業者需要保持警醒、自省,更需要相信科技向善,相信人類有能力和智慧去駕馭和控制這次技術革命。

從數據采集、訓練到機器學習,人工智能其實只是放大了一直存在於人類社會的問題,提醒我們在新的時代背景下發揮想象力與創造力,去思考與解決這些問題。

技術來自於人類對美好生活的追求,它始於人,也應控於人,無論是立法限制,還是價值原則,歸根結底,都是對人類社會倫理價值的重新探討。

人工智能的大潮仍在繼續,互聯網時代的先鋒,應當能夠在這大潮中立足、思考,抱著向善的信念,不斷穩重前行。

【尾注】

[1] Bughin, J. et al (2018). Notes from the AI Frontier: Modeling the Impact of AI on the World Economy. https://www.mckinsey.

com/~/media/McKinsey/Featured%20Insights/Artificial%20Intelligence/Notes%20from%20the%20frontier%20

Modeling%20the%20impact%20of%20AI%20on%20the%20world%20economy/MGI-Notes-from-the-AI-frontier-

Modeling-the-impact-of-AI-on-the-world-economy-September-2018.ashx

[2] Dutton, T. et al(2018). BUILDING AN AI WORLD--Report on National and Regional AI Strategies. https://www.cifar.ca/docs/default-source/ai-society/buildinganaiworld_eng.pdf?sfvrsn=fb18d129_4

[3]Edmond Awad, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-Fran?ois Bonnefon & Iyad Rahwan. The Moral Machine experiment. Nature 563, pages59–64 (2018)

[4]Executive Office of the President,Artificial Intelligence, Automation, and the Economy. https://www.whitehouse.gov/sites/whitehouse.gov/files/documents/Artificial-Intelligence-Automation-Economy.PDF

[6]AI With An Ethic: European Experts Release Draft Guidelines. https://www.forbes.com/sites/federicoguerrini/2018/12/23/from-mass-surveillance-to-killer-robots-eu-experts-want-your-feedback-to-create-trustworthy-ai/#54bbcfee7ddf

我好看嗎?

獲得更多的PTT最新消息
按讚加入粉絲團