每日最新頭條.有趣資訊

既要人工智能高效發展,還要符合倫理,該怎麽做?

曹建峰| 騰訊研究院高級研究員

人工智能法律問題的三個層面

近年來,人工智能技術發展取得了極大的進步,在一些領域甚至超越了人類自身的認知能力。人工智能也從一個純粹的技術領域一躍成為社會各界共同關注的話題。各國紛紛頒布人工智能戰略,加強頂層設計,人工智能由此成為國際競爭的新焦點。人工智能的跨學科研究迅速興起,尤其是國內的法學界出現了人工智能法律研究的熱潮,但卻沒有學者嘗試從法律上對人工智能的概念進行界定,導致各種研究頗具自說自話的色彩,缺乏統一的認知基礎。此外,社會公眾由於對人工智能技術缺乏足夠的了解,生發了人工智能取代人類工作、超級智能威脅人類生存等擔憂。

那麽,人工智能法律能否成為一門顯學?現在又有哪些新的問題需要研究和應對?對此,微軟總法律顧問Brad Smith曾有精辟論述。他寫道,未來會產生所謂的「人工智能法律」這一全新的法律領域嗎?今天,人工智能法律和1998年的時候隱私法剛興起時的境況差不多。一些既有的法律已經適用於人工智能,尤其是侵權法和隱私法。在一些特定的領域比如自動駕駛汽車等,開始出現新的監管。但是,人工智能法律尚未作為一個獨立的領域存在。到2038年的時候,我敢肯定這一狀況將有所改變。那時候,不僅有從事人工智能法律的執業律師,而且這些律師和其他所有律師都將依賴人工智能來輔助其執業。因此,真正的問題不是是否會出現人工智能法律,而是其如何出現,以及在什麽期限內出現。

這一預測在某種程度上可以給當前的人工智能法律研究背書,即學者的研究並非鏡花水月,空中樓閣,而是服務於未來將可能產生的一個全新的法律領域。綜觀目前的人工智能法律研究,主要存在法律人格、正義與平等、安全與認證、隱私與權力、責任、知識產權歸屬、競爭與消費者保護、人工智能產品監管、自主武器等九個主題,這些主題可被抽象為三個層面。

其一,權利的挑戰在以機器學習為代表的現代人工智能系統出現之前,人類是這個星球上唯一具有行為能力的主體,國家和公司作為法律上擬製的人,其自身不具有行為能力,需要由人類主體來代表。人工智能,作為通過一個評估過程自主作出選擇的非自然實體(即機器),開始表現出像人一樣的行為能力,例如達成交易、批準貸款、駕駛汽車、創作內容等等。因此其一方面帶來主體地位的挑戰,另一方面帶來創造成果歸屬和保護的挑戰。其二,責任的挑戰。以自動駕駛為例,其自主性和不可預測性斬斷了人類與事故之間的因果關係。其三,倫理的挑戰。體現為兩個方面:一是技術應用的邊界問題,例如將人工智能應用於人類增強或者武器和戰爭的限度在哪裡;二是技術發展可能改變人類倫理,依然以自動駕駛汽車為例,隨著自動駕駛系統的安全性能不斷提高,當其顯著超越人類駕駛水準之時,是否有必要重新考慮人類駕駛汽車的活動的道德性。

人工智能治理的三點認知

在計算機與信息技術的發展史上,網絡法經歷了三次重大轉變,每個階段都有其特殊的問題並產生了相應的法律規製。第一階段的關注焦點是計算機,各國圍繞計算機的安全、犯罪、欺詐、濫用等問題制定了一系列法律,這個階段的典型立法包括美國1984年的《計算機欺詐與濫用法案》等。互聯網興起之後,技網絡法發展到第二階段,信息大爆炸趨勢下,信息成為關注焦點,法律規製圍繞信息的隱私、保護、傳播、濫用等問題展開,這個階段的立法包括歐盟1995年的《個人數據保護指令》、美國1996年的《通信規範法》等。當前,網絡法已經發展到了第三階段,作為關注焦點的數據和人工智能算法帶來新的問題,預計將出現一系列人工智能法律,例如歐盟的GDPR已經針對人工智能應用進行了制度安排,歐盟議會發布的《算法責任與透明治理框架》則在考慮建立算法治理框架。就人工智能治理而言,本文提出三點認知。

其一,數據保護方面,明確企業間數據獲取與利用的基本規則,加強對企業數據資產及其合法利益的保護。人工智能的發展應用離不開數據,數據已經成為「新石油」,只有加強保護企業數據權益,才能為人工智能創新發展提供堅實的基礎。我國法院在諸多涉及數據獲取與利用的不正當競爭案件中認為企業對其投入勞動采集、加工、整理、生成的數據享有財產性權益,典型的案件包括陽光訴霸才、大眾點評訴愛幫網、鋼聯訴縱橫、拓迪、大眾點評訴百度、微博訴脈脈、酷米客訴車來了、淘寶訴美景、同花順公司訴燈塔公司等。其實早在International News Service訴Associated Press一案中,美國最高法院就認為,信息、設計等無形物可以因勞動、金錢等投入而產生一種「準財產權」(quasi-property right),從而可以基於反不正當競爭法禁止他人不當盜用。

根據國內外相關司法判例,不當獲取與利用數據主要有兩種方式:一是未經許可或超出許可,采取侵入的方式獲取非公開數據,通常表現為侵入伺服器、破解或規避技術措施或者使用他人ID、密碼等;二是采取爬蟲等手段複製、抓取數據,一般針對公開數據。根據前述判例,法院在認定這些行為的不正當性時一般采取兩個測試標準:一是實質替代標準,即將獲取的數據用於足以產生替代效果的競爭性產品、服務,此標準主要體現在大眾點評系列案件中。二是正當商業利益標準,其出發點是企業對其投入勞動搜集、獲取、加工、整理、生成的數據和數據產品享有競爭法上的財產性利益,他人未經授權予以利用具有不正當性。例如,在奮韓網訴58同城案中,法院認定58同城網站偽裝個人名義在網站上發布複製於奮韓網的侵權信息,未付出相應勞動即將他人成果據為己有,其行為掠奪了奮韓網流量、影響經營利益,嚴重損害了韓華公司的合法權益,違背誠實信用原則及公認的商業道德,構成不正當競爭。

其二,人工智能治理方面,考慮采取包容審慎、靈活有彈性的規製方式。一方面,需要為自動駕駛汽車等人工智能新事物革除既有的監管法律政策障礙,例如關於駕駛人的法律要求、高速公路測試限制等,避免過時的法律要求阻礙人工智能創新發展。因為隨著人工智能技術持續滲透到各行各業,帶來新的產品和服務,未來新事物與舊制度的衝突會越來越多,呼籲監管法律政策的革新和創新。另一方面,由於技術以及商業模式快速發展和迭代,草率的立法不可能期待會產生正面的效果,而且成文或專門的立法恐難跟上技術步伐,故應避免嚴格、細致的法律要求,而是可以采取事後監管、追責或者通過頒布標準、行業公約、倫理框架、最佳實踐、技術指南等「軟法」性質的規範來調整人工智能的發展應用,支持行業自律。這意味著敏捷靈活的政策路徑,例如中國國家新一代人工智能治理專業委員會6月17日發布的《新一代人工智能治理原則——發展負責任的人工智能》也提出了敏捷治理的原則。

更進一步,作為對技術應用的「軟法」規製,可以通過科技倫理來對科技行業的狹隘的技術向度和利益局限進行糾偏和矯正。所以需要通過預警性思考、廣泛的社會參與和多學科評估來充分討論可能存在的風險和危害,制定出切實可行的指導方針和倫理準則來引導、規範人工智能研發應用,以更好地應對人工智能應用可能引發的社會治理危機。

其三,算法透明與責任方面,應根據人工智能技術特徵和複雜性追求有意義的透明。具體而言,技術透明不是對算法的每一個步驟、算法的技術原理和實現細節進行解釋,簡單公開算法系統的源代碼也不能提供有效的透明度,反倒可能威脅數據隱私或影響技術安全應用。考慮到AI的技術特徵,理解AI系統整體是異常困難的,對理解AI作出的某個特定決策也收效甚微。所以,對於現代AI系統,通過解釋某個結果如何得出而實現透明將面臨巨大的技術挑戰,也會極大限制AI的應用;相反,在AI系統的行為和決策上實現有效透明將更可取,也能提供顯著的效益。例如,考慮到人工智能的技術特徵,GDPR並沒有要求對特定自動化決策進行解釋,而僅要求提供關於內在邏輯的有意義的信息,並解釋自動化決策的重要性和預想的後果。在具體落地層面,根據歐盟議會的《算法責任與透明治理框架》,對於政府和公共部門使用的算法系統,可考慮建立「算法影響評估」(AIA)機制;但不宜針對商業領域的所有算法系統應用都建立算法影響評估機制,因為這將給企業帶來不成比例的財務和管理負擔,相反可考慮建立分級監管機制,即對於具有與政府和公共部門的算法系統應用相似的重大影響的商業算法系統,可以考慮采取AIA機制,而對於其他商業算法系統,則采取事後追究法律責任的機制。

科技共同體承擔倫理責任,踐行科技向善

華裔AI科學家李飛飛在推動成立「史丹佛以人為本的人工智能研究院」(Stanford Institute for Human-Centered Artificial Intelligence)時表示,現在迫切需要讓倫理成為人工智能研究與發展的根本組成部分。顯然,在當前的人工智能技術背景下,我們比歷史上任何時候都更加需要注重技術與倫理的平衡。因為一方面技術意味著速度和效率,應發揮好技術的無限潛力,善用技術追求效率,創造社會和經濟效益。另一方面,人性意味著深度和價值,要追求人性,維護人類價值和自我實現,避免技術發展和應用突破人類倫理底線。只有保持警醒和敬畏,在以效率為準繩的「技術算法」和以倫理為準繩的「人性算法」之間實現平衡,才能確保「科技向善」。

因此,企業不能只顧財務表現,隻追求經濟利益,還必須肩負社會責任,追求社會效益,服務於好的社會目的和社會福祉,給社會帶來積極貢獻,實現利益與價值的統一。在這方面,國內外的科技公司開始主動承擔倫理責任,一方面注重技術應用的廣泛社會影響,另一方面積極采取措施避免技術被濫用和惡用。例如、谷歌、微軟等都提出了其研發和應用人工智能所要遵循的倫理原則;DeepMind成立了專門的倫理與社會部門,在技術研發投入之外,積極應對人工智能技術可能帶來的倫理與社會問題;此外,技術倫理委員會日益受到科技行業的青睞,科技公司開始采取多學科評估的方式來把脈、約束人工智能研發應用。

在國內,以騰訊為例,自2018年1月在國內首次提出「科技向善」以來,騰訊已將「科技向善」作為新的願景與使命,並積極踐行「科技向善」理念,例如將人工智能應用於醫療健康領域,致力於打造「救命的AI」;將計算機視覺技術應用於失蹤人口尋找,協助警方打拐尋人,包括基於「跨年領人臉識別」助力警方尋回被拐十年兒童,這在人工智能之前依靠人力幾乎是不可能實現的;此外,發起FEW項目,將人工智能應用於食物、能源和水資源(FEW),致力於解決人類所面臨的最大挑戰。此外,在今年3月提交的建議案《關於加強科技倫理建設 踐行科技向善理念的建議》中,全國人大代表、騰訊董事會主席兼首席執行官馬化騰呼籲在全社會、全行業積極倡導「科技向善」「負責任創新」「創新與倫理並重」等理念,並建議加強科技倫理的制度化建設,加強科技倫理的教育宣傳。

最後作為總結,現代數字技術與經濟社會以異乎尋常的速度整合和相互建構,但其高度的專業化、知識化和技術化使圈外人很難對其中的風險和不確定性有準確的認知和判斷,沒有來自科技共同體內部的風險預警和自我反思,任何一種社會治理模式都很難奏效。因此只有通過科技倫理教育宣傳增進科研人員和社會公眾在倫理上的自覺,使其不僅僅考慮狹隘的經濟利益,而且對技術發展應用的潛在影響及其防範進行反思和進行預警性思考(precautionary thinking),才有可能通過廣泛社會參與和跨學科研究評估的方式來實現對人工智能前沿技術的良好治理。

-- END --

我好看嗎?

獲得更多的PTT最新消息
按讚加入粉絲團