每日最新頭條.有趣資訊

學者胡凌:人工智能時代,誰能控制賽博太空?

題圖摘自《神經漫遊者》

人工智能時代,誰能控制賽博太空?

胡凌

上海財經大學法學院副教授、副院長

本文原題為《人工智能視閾下的網絡法核心問題》,首發於《中國法律評論》2018年第2期思想欄目(第86—95頁)。

作者按:

“人工智能”一詞既在技術層面使用(工具、客體),也逐漸在道德與法律主體意義上得到討論。本文延續思考網絡法核心問題的一貫視角,將人工智能置於互聯網演變過程(特別是生產過程)中,觀察其對既有賽博太空秩序的影響,以及法律如何回應。

本文認為,人工智能日益成為智能架構的核心構成,關於人工智能的任何法律安排(無論是法律主體還是客體)都需要放在平台企業和用戶、平台企業之間兩組不斷互動的關係中觀察理解,而無法先驗地由法律擬製確定。

特別地,在討論服務商和用戶之間的關係時,人工智能作為法律主體的問題似乎凸顯出來,在這一過程中用戶並未在架構中顯著增加控制能力和活動太空,人工智能企業的控制力反而進一步增強。

目 次

一、引言

二、架構理論中的人工智能

三、人工智能與我們:從遊樂場/商場到工廠

四、人工智能如何(不正當)競爭

五、從架構角度看人工智能規製

六、結語

引 言

“人工智能”(以下簡稱AI)一詞既在技術層面使用(工具、客體),也逐漸在道德與法律主體意義上進行討論。AI首先依托於現有互聯網底層架構和商業模式得到開發,原本沒有那麽智能的算法在運算和數據處理能力上得到提升,甚至算法本身能夠自主學習,對數據進行識別、分類、決策,可應用的場景也從單一擴展到多元,最終變成通用AI。

不難看出,AI這一概念容納了相當混雜多元的對象,而人們在談論時頭腦中往往想象不同的(甚至當下不存在的)實體。如果討論對象模糊不清,就很難對不同判斷達成一致(如是否應賦予AI適格的法律主體地位)。本文延續思考網絡法核心問題的一貫視角,將AI置於互聯網演變過程(特別是生產過程)中,觀察AI對既有賽博太空(Cyberspace)秩序的影響,以及法律如何回應。

這一視角的好處是:

首先,AI依托於不同場景和商業模式,可以在當下針對特定模式的立法體系下討論,避免在同一個標簽下談論不同層面的問題;

其次,可以折射出AI的生產性維度,看到AI使用背後的生產關係和政治經濟利益,而這往往被實證法學忽視;

最後,可以將既有網絡法問題置於更加自動化、智能化的環境中,思考什麽構成了中國語境下獨特而持續的理論與實踐問題。

以互聯網為媒介的數字資本主義的重點在於價值生產。不難發現,AI時代是算法驅動的社會化生產過程演進至更為自動化的階段,也是繼雲計算、大數據之後互聯網進一步發展的階段。這一階段明顯的特徵在於對算法的智能開發與廣泛應用,如果說前兩個階段的主題過於技術化,普通人難以理解,AI階段則更富有戲劇性:它伴隨著神奇的競賽故事、大眾媒體炒作以及聳人聽聞的警告和擔憂。

技術公司們擔心,把AI看成是未來人類的競爭者和統治者的論調會促使政府加強監管,導致這一領域的研發和投入減少,但事實上人們很快就發現,媒體、好萊塢影視劇和科幻小說中的AI並不會短時間成真,世界主要國家的政府和所有大型互聯網公司都在鼓勵AI研發,並將之視為未來國家間、企業間競爭的真正力量。

恐怖谷理論(Uncanny Valley)業已說明,人形機器人可能不會在消費者市場上受歡迎,除非它們被刻意設計得遠離人形,以至於不會給人類使用者造成“同類”的反感印象,哪怕在機器人文化盛行的日本也是這樣。相反,在現實中AI依托互聯網服務大有可為,越來越深入地介入普通人生活,不局限於某類特殊技能的智能水準提升,而是通過數據分析和精準預測帶來實在的經濟利益。

筆者曾區分了AI及其法律的雙重屬性:實證性(規範性)和生產性,前者指由作為一種黑箱的AI引發的權利和責任配置問題,如誰來承擔無人駕駛汽車事故的責任,這些新興規則的生成遵循著已有的網絡法規則創設模式;後者則指AI作為新經濟的生產要素如何受到規製和約束。生產的維度之所以重要,是因為它延續了傳統政治經濟學關於經濟民主、歧視、平等、勞動過程等關鍵問題的討論,法律問題只是這些巨集大問題的具體縮影。

如果AI只是傳統生產組織用以提高生產效率的工具,那麽也並沒有提出全新問題,但只要AI生產依托於互聯網,遵循著網絡生產的模式,就會延續一些和傳統經濟相比不同的問題,特別是勞動組織和勞動關係。

實際上,AI的特殊性是互聯網整體問題的映射,這未必是法律意義上的獨特問題(任何新事物都可通過法律解釋活動在既有概念體系中得到解釋),而是需要作為一種新型權力和利益相關人出現,以爭奪現實的合法性。

就生產而言,新經濟業已展示出兩種類型:線上資訊生產與通過算法驅動供需匹配,前者用於吸引大規模用戶並將其作為免費勞工,後者則體現為資訊經濟帶動更廣泛的經濟活動,更為精確地對供需進行匹配。類似地,AI階段的生產指:

(1)AI正在取代越來越多的人類線上行為和勞動,以極低成本產生資訊內容,吸引更多用戶;

(2)通過AI驅動線下資源生產更加精確,減少資訊不對稱,塑造價值再生產過程,並從交易雙方獲取最大限度的剩餘價值。

網絡法的核心問題在於互聯網如何進行控制和生產,其微觀機制和巨集觀架構是什麽,以及更進一步,誰能控制賽博太空。在生產和控制過程中,形成了兩組主要關係:一是平台企業和用戶的關係,一是平台企業之間的競爭關係,它們都可置於同一個生產性網絡法框架中得到探討。

這些關係是辨證的,一方面共同體現了新經濟內生地需要何種法律,另一方面又是不斷生成演進的,是企業與用戶、競爭對手不斷博弈過程中形成的秩序。本文認為,AI日益成為智能架構的核心構成,關於AI的任何法律安排(無論是法律主體還是客體)都需要放在上述不斷互動的關係中觀察理解,而無法先驗地由法律擬製確定。

本文結構如下:

第二部分首先將AI置於現有網絡法的架構理論下進行解釋,認為AI是整個智能生態系統中不可或缺的一部分,有必要和其他互聯網層面聯繫在一起系統討論,而不是作為獨立對象(這是任何法律主體討論的思想根源)。

第三部分討論AI如何推進網絡法的上述兩對核心關係,即智能化和自動化將進一步改變用戶和服務商的生產關係,同時也可能加劇不正當競爭,需要法律給予回應,劃清架構邊界。

在討論服務商和用戶之間的關係時,AI作為法律主體的問題似乎凸顯出來,在這一過程中用戶並未在架構中顯著增加控制能力和活動太空,AI企業的控制力反而進一步增強。

第四部分繼續在架構視角下討論如何通過合約和監管處理作為黑箱的AI資訊披露問題。

架構理論中的人工智能

“架構”(architecture)理論或代碼理論由勞倫斯·萊斯格(Lawrence Lessig)在《代碼及其賽博太空中的其他法律》一書中提出,並在後續研究中不斷得以擴展。架構幫助我們理解賽博太空的權力如何出現和延伸,解釋一系列網絡法問題,可從橫向與縱向兩個維度進行討論。

就橫向維度而言,架構從不同場景和功能的設計得以體現,影響架構內主體行為,並可通過一些基本方式進行合並或分解。就縱向維度而言,架構包括了從硬體層、內容層到數據存儲層的諸多層面(見圖1):

橫向與縱向架構展示了賽博太空控制/生產的範圍,AI正是其中關鍵一環。以架構視角觀察,不難發現人們對AI的不同想象取決於對不同架構要素組合的理解和認知:

儘管大眾願意將AI設想為有形體的“機器人”,但目前相當多的AI應用都依托現有互聯網服務,且出現硬軟體垂直整合的趨勢。

按照通行的互聯網商業模式,可將AI分解為“算法+第三方應用(場景)+硬體終端”,各類場景由多個算法組合控制,形成生產和交易流程,從具有強大運算能力的雲端伺服器進行遠程控制;中層則由第三方應用開發者形成交易平台,允許用戶通過終端進行互動使用;終端不過是連接線上和線下的界面,最初是智能手機,也可以演變成包括智能音箱、無人駕駛汽車在內的任何硬體。其商業目的是加強人機互動,按照分享經濟思維促成大規模交易與合作。

這一架構中的AI會通過账戶對使用者進行認證,對账戶中積累下來的用戶行為數據進行分析識別,生成動態身份,並對其行為進行評分指引,預測其偏好和未來行為。從這個意義上看,AI就不單純是一個“大腦”或終端產品,而是一整套生產流程,甚至就是架構本身。

按照這個思路,也可以按照不同功能區分位於賽博太空架構不同層面的AI:

?I類為C2C模式平台本身,通過大量數據分析精準調配資源、設計場景;

?II類為B2C模式,向用戶直接提供在線服務;

?III類為用戶的智能代理人,代理用戶在平台上參與交易,但可能和I類的角色相衝突;

?Ⅳ類則是用戶購買的終端智能產品。

四者之間的關係一定程度上反映出互聯網架構和權力關係在過去十多年間的重大變化。互聯網發展早期的智能、創新和控制力集中在無處不在的終端,經由創生性的個人電腦、端到端分布式架構以及大眾分享的文化造就了我們熟悉的互聯網生態。

然而,隨著雲計算興起,越來越多的服務以資訊流方式在線提供,同時應用商店模式使終端越來越變成啞終端(儘管芯片處理能力不斷增加),用戶在架構中的行為能力受到愈加嚴格的限制,一切指令都來自於智能雲端。

理解這一點有助於我們理解未來可能出現的形形色色的AI終端產品,表面上看是由用戶購買控制,但它們並不能獨立運作,需要時刻與服務商中央伺服器相連更新,甚至可在一個封閉網絡中相互溝通傳輸數據(智能物聯網),使用戶成為遵循許可使用協定的終端租客而非購買者。

此外,I類AI還可能通過特定方式(如許可牌照)成為寡頭壟斷的基礎設施服務,為更多中小開發者提供計算能力和數據分析服務,也變相地推動形成巨頭主導的生態系統。如果將橫向與縱向視角合並,可以看到智能架構中上述四類AI的地位及其對社會主體行為的影響(見圖2)。

AI作為整個架構演變的引擎,對外開拓架構的疆界,對內則塑造生產關係和生產活動,與平台規則、評分機制、用戶協定等一並構成了架構權力。較為完美的控制/生產體系是文字規則與代碼規則保持一致,外在的用戶協定與平台規範能夠精確地描述變動中的算法功能,但這在實際中卻難以實現,後文還將進一步討論。

在這個智能架構中,既包含高度流動和不確定的要素,也包含穩定不變的要素。

例如,架構中匯集的生產性資源是不斷流動、多屬的,但架構通過账戶認證和識別穩定地追蹤用戶,並根據其數字畫像加強預測降低風險;架構的硬體層面的品質要得到保證,確保符合品質安全標準,但其軟體功能又需要不斷更新更新,要求用戶容忍配合。

在這樣的辯證法中,AI經濟得以不斷崛起演進,使AI企業與用戶、競爭者的關係變得日益複雜。

人工智能與我們:

從遊樂場/商場到工廠

上文已經說明,常識能夠想象和理解的AI服務會以何種方式開展。這意味著AI產品很可能進一步脫離終端用戶操控,由AI企業持續保持強勁控制力,在此背景下談論獨立的AI法律人格可能會有截然不同的政治經濟意蘊。

本部分將這一話題放置於AI與我們(作為產銷者,prosumer)的關係中,指出無論是消費者還是數字勞工,都需要認真對待更加智能化的數字架構,後者驅使互聯網帶來的控制/生產過程走得更遠。

機器正在取代人類工作的討論方興未艾,最早反映在互聯網上主要是由算法直接生成或輔助人類製作可供消費的內容,後來擴展至更多元的場景,可能的模式既包括B2C,也包括C2C。

這一方面無疑影響了那些難以快速適應新技術變化的傳統職業,另一方面更加便利了消費者,同時將更多熟悉數字環境的消費者轉變為可產生價值的靈活勞動者。

下面簡要勾勒出AI生產場景的演進(即上文的II類和Ⅳ類):

新聞報導、法律服務、編曲、文學創作、廣告這樣的初級資訊編纂工作可以又快又好地由AI承擔,以接近於零的邊際成本向用戶提供,降低用工成本。這更多是結構化的數據自動生成的結果,只要對輸入的數據進行結構化整理,就可以按照一個模板生產出所需的資訊產品。

機器人推手、僵屍粉、刷單和個人資訊打碼這樣的灰/黑產的生產主要由AI實現。

虛擬互動或創設虛擬形象,誘使更多的用戶參與使用,如直播平台和微博上的粉絲或者在線遊戲虛擬對手、聊天機器人。

基於去世用戶數據開發出虛擬人像對話服務,模擬用戶生前行為和思想,實現“永生”。

在軟體智能化基礎上,將電腦和智能終端稍加改進擴展,形成各類新型終端,即會思考的機器人雛形。

對用戶而言,智能服務是一個合約問題,如果他們接受一個存在大量AI擬人化生產的虛擬環境,監管者會要求企業在用戶協定中披露這類資訊,並提供能夠驗證真偽的方法,以免用戶遭受欺詐造成誤解。機器生產的意義在於,它不僅反映了網絡太空價值生成的勞動本質,也折射出用戶在互聯網太空生產轉運站瞬即逝的地位,甚至還反映了機器生產和人類勞動之間的連續性。

伴隨著人工成本的增加和競爭更加激烈,我們有可能見證更多由AI創作的網絡資訊和文化作品(哪怕是初級的),而在未來則會出現一個完全由機器生產主導的虛擬世界。

這一過程如果逐漸成真,部分互聯網平台可能會從C2C第三方平台模式轉向B2C自營模式,如果前者的成本遠高於後者。這當然會部分地減輕地域性監管的壓力(無須為不良內容找到人類責任主體),取而代之的是針對企業統一算法的監管。但就目前法律實踐而言,無論是法院還是監管者,都傾向於對網上的外在行為或結果進行認定、確定責任分擔,而不是探究黑箱內部(詳見第五部分)。

AI無須作為法律主體接受監管,而只是互聯網企業生產過程中的工具而已。即便是在搜索引擎公司強調其搜索推薦或競價排名推廣資訊是“自動生成”的時候,人們也從未想過要由一個純粹的機器算法承擔責任,獨立法律主體的說辭只是在為免費利用開放網絡資訊且承擔較輕的審查責任提供理由(這一說辭仍值得重視)。

如果越來越多的網絡內容不但由AI自動篩選,甚至組合排序,形成某種新作品,就會涉及與當下搜索結果的排列順序的區分,機器介入的程度越來越深使形式上的分別愈加不重要。

作為直接生產者的AI無疑會大量增加網絡公共資源的供給,避免出現人類生產者動力不足的公地悲劇問題。然而,人類的生產過程,同時承載著溝通交流與合作的功能,建立起同儕之間的關係和紐帶,而不簡單表現為純粹的勞動和價值交換。

AI生產的增多可能逐漸會減少這類活動的文化、社會意義,使經濟性成為最主要的衡量標準,同時意味著平台對公共資源池的掌控能力更強。下面將細致討論在互聯網經濟基礎上生發出的AI法律人格主張。

從生產的角度看,AI法律人格和地位的主張不過是延續了傳統媒體對消費者人格商業利用的做法,賽博太空在巨集觀架構上將用戶的人格(如隱私)不斷轉化為可持續利用的數據財產,並通過微觀用戶協定“知情同意”實現這一商品化過程。

但有趣的是,AI產品(作為架構的延伸)最終能夠積累(或要求創設)出自己的獨立人格,表面上似乎能與用戶保持某種平等的地位或得到法律特別保護,但更多折射出背後的AI企業財產權利,時刻受到企業的遠程控制,用戶並未真正脫離架構權力影響。

AI法律人格的擬製主張從一個側面看並不複雜,在制度設計上甚至水到渠成:互聯網企業擁抱以AI為基礎的平台架構,同時開發出更貼近用戶日常生活的、可自主思考決策的智能終端/機器人,要求賦予其某種獨立而有限的責任,並與AI企業在形式上脫鉤。這種思路與當下的平台責任討論一脈相承,甚至可以看成“非法興起”過程中的最新主張。

本文無法系統設想AI產品成為法律主體可能的制度設計,從已經進行的討論來看,至少包含以下重要方面:

算法自動生成的內容享有著作權,可積累個人財產。這會使網上屬於公有領域的內容通過抓取和創造活動進一步私有化,而競爭對手不得侵犯;同時AI企業不會為任何侵權內容負責,但可以通過AI的再創作而間接獲利,吸引消費者。

享有一定程度的言論自由。這無疑可降低對AI企業的商業言論監管要求,減輕平台審查責任,得到相關法律(如美國憲法第一修正案)的保護。

購買服務的用戶並不實際擁有虛擬影像,它在形式上獨立,但由AI企業算法控制

容忍終端產品的軟體瑕疵。類似於軟體拆封合約,AI產品需要實時聯網反饋使用數據,以確保功能穩定更新,不斷增強企業的遠程控制力。

如果智能產品包含硬體,可在消費者法律要求下承擔產品品質責任

有限侵權責任。AI企業為特定情況下出現的因AI運轉失靈導致的侵權責任購買保險,特別是針對風險大、概率小的極端行為。但在人機互動過程中,有時很難區分責任邊界,也較難取證。

“不得傷害機器人”,智能終端不得隨意破解拆分,因為它代表了AI企業的知識財產,用戶也不能未經許可自行編程設計AI作為代理人進入平台伺服器溝通交換數據。

在人機互動中有權使用用戶數據,默認追蹤用戶,形成因人而異的AI。

容忍可能的廣告等商業模式,不得以不正當競爭方式屏蔽。

上述列舉均為業已發生的各類互聯網案件/事件的延續,本身沒有更多特殊性,隻不過更加強調AI的“自主性”和“不可控制性”,引發人們關於“自由意志”的想象。在相關法律頒布之前,來自AI企業的主張在實踐中已經成形(請對比“快播案”)

首先,可以通過用戶協定展示,在知情同意的通行說辭下避免運營風險;

其次,可以不可控為由,主張“網絡中立”或“技術中立”,要求用戶為自身行為負責;

最後,可以算法黑箱的深度學習過程不可回溯為由,主張降低可能的資訊安全保障義務。

如果用戶購買到的是一個完全自主的智能產品,對用戶的終端能力和選擇權將有極大提升,也可以真正和AI企業脫鉤,但無論是目前的資訊安全審查制度還是互聯網商業模式,都不允許這種情況發生。

此外,人格化的結果是在人類生產過程中合法引入了超級競爭者,這可能會迅速取代更多的簡易工作,並創造出更多的初級消費品。

再次強調,人格化同時意味著希望人們無視AI公司背後可獲得的經濟利益和控制力量,重要的不是“最後一公里”產品本身是否足夠智能從而在法律形式上更加獨立,而是從雲端到終端的整個流程代表了生產性的權力關係,有必要思考未來如何通過法律調整這種關係,使之變得更加公平,否則只是針對純粹法律技術和擬製的研究在實質問題上改進不大。

AI帶給我們的不只是遊樂場或商場,也可能是無薪勞作的工廠,想象我們和AI關係的另一種方式就是數字勞工。如前所述,由於互聯網興起的商品化邏輯沒有改變,不斷碎片化的人類勞動在相當時間內還會持續成為AI演進(無論是I類還是II類)的免費生產資料。AI通過大量真實數據得到訓練,並不斷搜集、追蹤用戶數據,變得更加智能。

松散的勞動關係是互聯網成功的關鍵要素之一,目前一系列案件已經確認像網絡主播和專車司機這樣的靈活勞動力不是平台雇員,也因此無法享有社會保障、參加工會等勞動權利。以低成本獲得無償勞動將繼續成為AI企業不斷擴展的推動力。

人工智能如何(不正當)競爭

除了直接生產資訊內容,AI更多地用於平台經濟上的調配資源、行銷推薦、內容分發,甚至預測未來(上文的I類)。這一預測本質上是依據不斷生成的動態數據對個體加以追蹤,更加精確地計算和判斷每一次網絡點擊和活動會引發何種連鎖反應。

這種經濟類型從生產資料的角度在數年前便被稱為“分享經濟”,因為平台試圖創設生態系統,為中小生產者和消費者提供交易中介服務,但由於平台廣泛搜集交易數據,撮合交易,由此獲得廣告收入甚至交易分成,已經深深介入交易過程,在這個意義上稱為“平台經濟”更加準確。隨著更加成熟的AI創設出來,平台與雙方交易更像是一個相互嵌入的合作過程,甚至擁有某種強大權力。

為了打造互聯網入口,平台會盡可能將生產資源納入自己的生態系統,並采取補貼優惠等活動吸引交易雙方,提供良好的服務,更進一步表明平台的非中立特徵。與其他平台競爭者相比,特定平台是非中立的,但對平台上流動的資源和交易而言,中立和公正性又是確保一個良好生態運轉的核心。從這個意義上說,未來的公共資源池會變得更加封閉,進一步受控於核心算法,生產性而非公共性進一步得到強化。

和眾多互聯網導致的傳統行業的衰落(實質上是生產方式的轉變)類似,AI時代進一步將戰火引至更多服務業,如交通、法律、醫療和教育。儘管不斷有針對互聯網平台的不正當競爭控訴,法律事實上反映了新經濟的利益,並按照新經濟的需求發生轉變。在AI主導的平台時代,平台之間的不正當競爭可能會有如下新特點:

通過機器人爬蟲不斷抓取競爭對手控制下的數據和資訊可能會更加猖獗,儘管法院在最近的新浪微博訴脈脈(2016)—案中確認了此類行為的不正當性,但最終需要的仍然是通過技術保護措施的硬性自我防護,而非像Robots協定這類柔性行業規範。

同時,關於比價插件的不正當競爭案件卻反映出法院對平台利益的過度保護,忽視了插件軟體的公益屬性,也失去了平台價格監管的可行的替代方案。競爭者和其他交易主體會雇傭網絡推手製造虛假數據,造成數據汙染,反過來對平台的精確分析造成干擾;平台如果不能識別並抑製這類虛假交易,會遭受極大損失。網絡上有大量機器人不斷破解各類在線账戶(如部落格)並自動發表不相關的垃圾內容,佔用了相當的網絡流量,也是不正當行為的一個變種。

AI時代的任何插件、APP、軟體甚至硬體都可能是由自動化和數據驅動的,這可能引發上遊架構企業借助硬體優勢對下遊企業提出強製性要求,意圖通過統一AI調動特定應用(往往以向用戶推薦或投放定向廣告的方式),這意味著上遊企業更加強大的掌控力,甚至不惜排斥其他應用,走向垂直整合的自我封閉性。

?算法競爭本質上首先仍然是資源競爭和架構邊界的劃定。“魏則西事件”折射出AI公司(例如搜索引擎)的競爭策略是資源先佔(從通用搜索轉向垂直搜索),而怠於開發精確的算法,商業模式和新入口的打造使相關市場不斷被顛覆,更加不需要精確算法在邊際上推動獲利。這一現象表明算法可能不會因單純的市場競爭而推動改進,AI公司仍然會依靠更加省事的廣告和競價排名以及不正當競爭獲利。

上述特點說明,AI時代的不正當競爭可能會圍繞生產性資源和數據爭奪進一步加劇,成為“非法興起”邏輯持續的另一例證。這一爭奪由AI內在驅動,表現在外則是架構之間的碰撞、排斥和衝突,從而導致更加封閉的垂直平台或生態系統,不利於推動基於生產資料創造性再利用的創新。

缺乏有價值生產資料的新興AI企業更加會利用自動化手段在賽博太空中以不正當競爭方式擴展,而且有趣的是,這種擴展往往打著用戶代理人或技術中立的旗號,例如幫助用戶“一鍵搬家”創製的內容、屏蔽廣告或者便利傳輸盜版作品。這提出更多深層次的法律問題:

(1)為了更加有效地利用生產資料,需要探索合作共享機制而非圈地機制,但無論是共享還是圈地,都往往是AI企業以衝突方式不斷試探架構的邊界而產生,法院應根據資源的有效利用程度考慮辨識是否屬於不正當競爭;

(2)變成底層基礎設施的I類AI企業在競爭關係上應與上層的II類AI有所分別,防止底層企業過度整合,濫用支配地位,影響上層企業自主經營行為;

(3)更重要的是,需要關注發生於架構之內的用戶真實控制能力,允許用戶自行開發或雇用III類智能代理人,自主地掌握個人數據進行合作交易。

從架構角度看人工智能規製

前兩部分內容都暗含了AI企業和產品在演進過程中受到的質疑和挑戰:對消費者而言,需要確保交易公平,防止消費者剩餘被過度剝奪,出現隱性歧視;對勞動者而言,需要在靈活用工環境中得到社會保障;對競爭者而言,需要劃定平衡創新與秩序的架構邊界。這些挑戰可以通過合作協定實現,也可以經由外部監管介入推動。

我們已經看到知情同意原則被廣泛用於AI企業確立合法性的實踐中,但在黑箱背景下仍需進一步探討,即保持架構黑箱的技術秘密性/複雜性與特定資訊披露之間的動態平衡,同時使算法對其外在活動有效地承擔責任。

傳統監管思路針對黑箱外在行為的負外部性進行約束,這是以往“技術中立”的思想根源,如果負外部性影響較大,就會認為該軟體程式的設計有實質性侵權用途,但基本上沒有介入黑箱之中乾預。這種司法選擇是有道理的,主要因為法院或監管者缺乏相關知識,哪怕是專業監管者也無法理解複雜代碼的設計,只能依據其表現出來的模式加以判斷。

但這並不意味著黑箱的設計不受約束,當代碼設計和商業模式、用戶協定愈加緊密地結合在一起時,即使法院無法審查代碼,仍可以審查商業模式合法性和用戶協定效力。

在特定情況下(特別是安全領域),除了直接針對AI產生的外在行為進行規製,也會嘗試對算法本身進行管控,包括算法設計過程的倫理規則、安全性審查標準、針對代碼的備案製等。軟體產品的一般缺陷多少可以被拆封合約掩蓋,但仍然有必要對已經出現的幾類足以影響AI發展的規製方式和現象稍加討論:

(1)AI分級,判斷人機互動的程度和責任分擔。現有無人駕駛汽車的分級制度為具有較大風險性的AI產品監管提供了指引,即在設計不同層次的AI服務過程中,清楚地說明在不同場景下使用者和智能服務之間的主輔關係,提供相應激勵。但在實踐中仍然可能出現責任不清的狀況,需要合理分配舉證責任。

(2)在判斷軟體侵權行為時對算法設計的初衷和用途實質進行判斷,以決定是否徹底禁止該軟體,如法院對P2P軟體是否構成“實質性非侵權用途”做出的判斷。這類判斷並未深入軟體內部,但還是對軟體開發者和使用軟體的行為進行了分割,這就比簡單模糊的“技術中立”主張更具有可分析性和操作性。針對關鍵算法,開發者可以施加一定的基本功能說明義務,向監管者和用戶充分合理地說明,用自然語言描述出其功能和可能的風險。

(3)資訊披露與共享。由於軟體缺陷會造成嚴重後果,一定程度的關於代碼資訊缺陷的披露可以幫助填補漏洞,平衡黑箱的不透明,並促使企業更自覺地加大對自身產品的安全檢測。允許像“白帽子黑客”這樣的第三方組織進行披露有利有弊,而在一定範圍內進行的代碼資訊共享(包括企業間、政企間)是另一種通過資訊流通發現算法缺陷的手段。

(4)監管合約。儘管無法深入AI內部,但監管者可以要求用戶協定盡可能地反映算法的功能和商業模式,並在事後對合約進行形式審查,如果合約預期的效果和展示出來的功能不一致或有違公序良俗,法院就可能進行實質審查,變更或撤銷涉案條款,並間接地對AI的設計和外在效果產生影響,如廣告自動推送系統的設計。問題在於,法院有時會嚴格按照合約法規定進行形式審查,卻怠於進行實質審查,使一些用戶無從得到救濟。

(5)數據的清潔性。在很多情況下,法律無意乾預黑箱的運作過程,只希望對黑箱處理的生產資料進行約束和清潔,從而替代對黑箱設計本身的規製,這一思路和監管者的事前規製有所不同。例如,為防止AI侵犯個人隱私,法律會要求對搜集到的個人數據進行脫敏,無法追蹤到個人。

有必要看到,披露的資訊並非越多越好,在披露資訊的同時需要考慮資訊的消化能力和認知偏差,也需兼顧AI企業的財產權利和用戶自主的合理使用和操作太空,從而有利於多元的互聯網創新。

結 語

本文簡要討論了架構視角下的人工智能,以及如何理解其與使用者、競爭者之間的關係,進而幫助我們更好地理解作為網絡法核心問題的控制/生產機制。至少在中國語境下,兩組關係都在不斷地重塑架構邊界,特別是伴隨AI企業擴張引起的生產關係與法律關係的諸多調整,意味著這些關係有待法律進一步確認而非固定不變,也展示出資訊時代經濟基礎對上層建築的巨大影響。

資訊技術曾許諾成為一種“解放性”技術,但從初期互聯網到AI的發展過程表明,這種解放不過是把生產資源和勞動從傳統組織中釋放出來,給予高度流動性,組織新的生產活動而已,同時伴隨著更為強勁、彌散的權力和社會控制。這就回到了架構理論的原初問題:處於賽博太空中的我們如何在微觀機制和巨集觀架構上爭取更多的自由和控制力。

*本文是國家社科基金一般項目“中國網絡法的演進模式研究”(批準號:17BFX027)和上海哲社規劃課題“商業網絡推手的法律規製研究”(批準號:2012EFX005)階段性研究成果。

獲得更多的PTT最新消息
按讚加入粉絲團