每日最新頭條.有趣資訊

產業視角下談數據治理,有哪些內容值得關注?

探討數據治理問題,既需要從理論視角探討權利歸屬、保護方式,也需要從產業和實務視角對技術發展現狀和趨勢、產業應用、制度基礎進行分析。

?7月25日,網絡法工作坊持續進行

中國信通院雲計算與大數據研究所閆樹工程師、君合律師事務所董瀟律師、中國信通院工業和資訊化法律服務中心許長帥副主任、中國法學會法治研究所劉金瑞副研究員、中國人民大學新聞學院宋建武教授、中國人民大學未來法治研究院丁曉東副院長、對外經濟貿易大學數字經濟與法律創新研究中心許可主任為各位學員帶來精彩的課程和分享。

觀點

集錦

大數據與實體經濟雖然融合提速,但不均衡現象突出。大數據與實體經濟融合的成功要素包括,一體化的大數據平台、平民化的數據應用以及完善的數據管理體系。

—— 閆樹

縱觀全球,目前關於數據畫像規範仍比較有限,歐盟提出的根據對個人影響而區分監管的趨勢和實踐之中的驗證值得關注。於我國而言,在數據保護基本原則的不斷發展情況下,實踐中到底應該選擇一條怎樣的路徑才能更好地促進行業的發展、同時使個人權利得到相應的保護,值得深思。

—— 董瀟

在因法律行為導致法律關係變動的情形下,個人作出意思表示需主動提供個人資訊,使個人資訊被他人知悉,實現了個人資訊流動,不存在該他人告知個人收集其資訊的目的、方法等,取得個人同意後予以收集的“告知同意”情形。

——許長帥

個人資訊權一概而論地強調個人利益,不符合當今時代發展需要和現實情況,不應該成為中國個人資訊保護的理論基礎,不應寫入正在編纂的中國民法典。

——劉金瑞

在未來,有幾個基本規則需要在智能推送中得到強化:首先是用戶個人對資訊的選擇主權;其次是基於個人社會化視角的社會乾預;最後要對某些用戶病態的資訊需求加以校正。

——宋建武

算法黑箱之所以引發關注,在於算法應用的一些場景中發生不透明與知情權缺失的狀況。

—— 丁曉東

面對算法向我們提出的種種挑戰,一個辦法是控制輸入,另一個辦法是控制輸出。

——許可

演講

實錄

數據技術、應用與產業

閆樹

中國資訊通信研究院雲計算與大數據研究所工程師、大數據發展促進委員會數據流通工作組副組長

大數據是體量大、結構多樣、時效強的數據,處理大數據需採用新型計算架構和智能算法等新技術。大數據的應用強調以新的理念應用於輔助決策、發現新的知識,更強調在線業務流程化。目前,大數據政策熱度持續攀升。

就大數據技術發展方面而言,數據分析技術迭代發展,事務性數據處理技術即將迎來分布式變革,數據流通技術正逐步進入實用階段。我國大數據技術近年來也取得了積極突破。

大數據應用發展也愈發廣闊。

目前,大數據應用於政府政務、健康醫療、互聯網金融、教育文化、工業製造等領域。同時,金融、征信、風控領域也是大數據應用非常成功的領域,大數據與實體經濟雖然融合提速,但不均衡現象突出。

大數據與實體經濟融合的成功要素包括,一體化的大數據平台、平民化的數據應用以及完善的數據管理體系。

大數據產業由大數據核心業態、大數據關聯業態和大數據衍生業態構成。大數據產業的核心要素包括製造和服務兩個環節,即包括大數據硬體提供商、大數據軟體提供商和大數據服務提供商三類角色。

大數據產業的關聯要素包括大數據的產生、采集、傳輸、存儲和處理等外延產業。中國資訊通信研究院結合對大數據相關企業的調研測算,2017年我國大數據產業規模為4700億元人民幣,同比增長30.6%。

個人畫像的規製研究

董瀟

君合律師事務所合夥人

用戶畫像已被應用到很多現實場景中,如程式化廣告、征信、新聞推送、保險行業等。

大多數法域目前對用戶畫像沒有明確的規製體系。例如,美國並沒有統一的資訊保護法,也沒有針對用戶畫像的法規,而是針對不同的場景,適用相關行業自律體系和特殊規範。

例如,對一般的數據處理的行為,仍以FTC法案第5條適用為主。在程式化廣告行業,依靠DAA、IAP等行業自律組織的規範,對於征信類的數據,主要考慮CRA的規定。

歐盟剛剛生效的GDPR首次對畫像進行了定義,主要定義特徵包括:引入自動化決策機制、評估自然人的個人情況、並且進行預測。在GDPR的規定下,並非所有的用戶畫像行為都被禁止或特殊規製。

第22條規定主要的是自動化處理的個人決策、並對個人產生法律後果或者近似重大影響。如果不造成這種影響的數據畫像,原則上只需要按照GDPR項下個人資訊處理的一般原則進行。如果適用22條,則需要滿足相應的前提條件才能夠進行畫像,包括同意、政府授權或為履行合約所必需。

但實踐之中,主要仍需要同意作為處理的基礎,而在GDPR項下同意的要求非常高、並且可以撤回。GDPR項下數據處理的一般規則,包括合法公平透明化、最小化原則、包括同意的要求、目的的限制等在無論是否適用22條的畫像都會適用。

縱觀全球,目前關於數據畫像規範仍比較有限,歐盟提出的根據對個人影響而區分監管的趨勢和實踐之中的驗證值得關注。

於我國而言,在數據保護基本原則的不斷發展情況下,實踐中到底應該選擇一條怎樣的路徑才能更好地促進行業的發展、同時使個人權利得到相應的保護,值得深思。

追根溯源——個人資訊流動

與保護的基礎問題

許長帥

中國資訊通信研究院工業和資訊化法律服務中心副主任,高級工程師

法律關係變動的主要原因為法律行為,法律行為的成立要件包括主體、客體和內容。法律關係變動依賴個人資訊流動,個人資訊流動出於個人主動自願。

因此,在因法律行為導致法律關係變動的情形下,個人作出意思表示需主動提供個人資訊,使個人資訊被他人知悉,實現了個人資訊流動,不存在該他人告知個人收集其資訊的目的、方法等,取得個人同意後予以收集的“告知同意”情形。

法律關係變動依賴個人資訊流動,為了保障法律關係的正常變動,法律應以保護和確保個人資訊的流動為基本原則。

雖然個人資訊在法律關係變動中由個人主動提供,不存在資訊收集者在告知後取得個人同意後收集的情形,但“告知”在個人資訊保護中也具有重要的作用。為確保個人知情,提示其個人資訊有被知悉的風險,保障其自主決定,需要服務提供者告知其接受和使用其服務將由哪些個人資訊同時被知悉和使用。

同時,個人資訊保護中的“同意”,應指同意交易條件,包括標的、數量、價格、個人資訊等。個人資訊,是同意對象的組成部分。

對個人資訊進行保護,不適宜通過設定個人資訊權的路徑,根本原因在於保護個人資訊的目的是為了保護個人太空內獨立、自如的生活狀態,保護的是個人自主決定和選擇生活的人格利益,個人資訊隻不過是外在載體,不適宜作為權利客體。

另一方面,若承認個人資訊權,則會產生“既然你的服務建立在收集和使用我個人資訊的基礎上,請你為使用我個人資訊的行為付費”的論調。

個人資訊的保護還應當回歸具體的法律關係。個人資訊流動是法律關係變動的一部分,我們不應割裂個人資訊流動和更為基礎的法律關係變動。保護和判斷是否侵犯個人資訊,應當回歸到該法律關係,進而適用相關法律依據,比如合約法的締約過失責任、違約責任,以及侵權法上有利益保護等。

個人資訊保護制度中,不可或缺的是行政機構對非法收集和使用個人資訊的行政處罰。但對於特定的個人而言,行政機構並無對其個人資訊進行保護的職責。

智能推送的影響和規則

宋建武

中國人民大學新聞學院教授,博士生導師

智能推送在當今社會具有極大的意義和價值。用施拉姆或然率公式來解釋今日頭條運用智能推送而迅速發展比較有說服力。今日頭條的精準化推送相比以前門戶網站的列表式推送與“百度式搜索”,在海量資訊獲取與用戶需求分析方面,更符合傳播規律。

在競爭的驅動下,移動傳播的內在規律就是精準推送,這種智能推送的實現方式是首先建設內容數據庫聚合海量資訊,進而建設用戶數據庫記錄用戶資訊需求,最後通過大數據和算法相結合的方式來實現智能推送與精準分發。

這種方式解決了社會資訊化帶來的海量資訊與媒體終端個人化引發的個人化資訊需求之間如何有效匹配的矛盾。

這種智能推送帶來了移動傳播革命。它首先是一次傳播關係的革命性變革,用戶個人第一次成為傳播活動的獨立主體,而不是作為群體中被假設為無差異的一個;其次,移動傳播革命凸顯了個性化的資訊需求並要求通過精準傳播加以實現。

在此基礎上,智能推送應當遵循什麽規則呢?以今日頭條為例,其典型推薦規則包括有相關性特徵、環境特徵、熱度特徵和協同特徵。在移動傳播環境中,對“熱度”特徵的過分強調往往使資訊推送流於過度娛樂化。

一個應對措施就是重新認識資訊的“重要性”,包括重新理解重要性概念,重新思考如何建立個人的重要性判斷與社會的重要性判斷的一致性等。

在未來,有幾個基本規則需要在智能推送中得到強化:首先是用戶個人對資訊的選擇主權;其次是基於個人社會化視角的社會乾預;最後要對某些用戶病態的資訊需求加以校正。

算法黑箱與算法規製的基本原理

丁曉東

中國人民大學法學院副教授,未來法治研究院副院長

算法黑箱之所以引發關注,在於算法應用的一些場景(例如公共機構的錄取、評級、搖號等)中發生不透明與知情權缺失的狀況。由此衍生的相關問題包括算法主體性喪失、算法欺詐和決策權喪失、算法權力與算法控制、算法不平等與歧視等。

針對算法黑箱的問題,目前已有的解決方案有算法透明,具體措施是公開算法和公開源代碼。另一個措施是提高算法的可解釋性。第三條路徑是努力實現算法公平,逐漸實現搜索中立性和反歧視性。還有一些國家設定了專門的算法規製機構,來增強算法規製的專業性和可操作性。

上述提到的解決方案面臨著一些技術困境。首先,算法透明與算法可解釋性面臨的一個難題是,專業人員也很難對此作出解釋,而AI時代的解釋更為困難。

其次,面臨著自主性問題,因為對於某些問題而言,自主決定並不一定最好,大數據助推反而可能更好。

第三,算法公平和反歧視也存在一定問題。因為算法公開難以真正解決反歧視問題,社會中的反歧視普遍存在。

第四,知識產權問題。公開算法可能違反知識產權或商業秘密。第五,設定的專門算法機構,可能缺乏場景化理解。

解決算法問題,需要重新思考算法黑箱,在某些情形下可以或者必須保持黑箱,重要的是將算法倫理化;需要重新思考算法可解釋性,在具體場景中選擇解釋的對象、程度與方式;需要重新思考算法歧視與算法平等,摒棄形式化的反歧視,要善於利用算法進行反歧視與促進平等;需要重新思考算法的個性化推薦,結合經濟學的三級價格歧視問題與隱私保護問題進行思考。

與談環節

劉金瑞

中國法學會法治研究所副研究員

個人資訊權一概而論地強調個人利益,不符合當今時代發展需要和現實情況,不應該成為中國個人資訊保護的理論基礎,不應寫入正在編纂的中國民法典。

首先,中國正處在一個時空壓縮的階段,面臨的問題非常複雜,我們應當從原問題出發,從生活場景出發,既要解決保護不足的問題,也要避免出現保護過度的問題。

其次,個人資訊保護需要堅持利益平衡原則,既要保護個人利益,也要保護現有的商業實踐和個人資訊的社會價值。

第三,中國個人資訊的保護方案既不適合套用歐洲模式,也不適合套用美國模式,最優策略是走一條中國特色的個人資訊保護之路,亟待研究的是中國個人資訊保護的基礎理論。

第四,要警惕目前我國個人資訊保護刑法先行而且刑事化保護過度的傾向,這可能會衝擊或者扼殺正常的數據流動。

許可

對外經濟貿易大學數字經濟與法律創新研究中心執行主任

討論算法問題,必須要首先明確:何為算法?在我看來,算法是一系列用於描述一個問題解決方案的步驟,它是與具體實現相互獨立的抽象計算步驟。這與之前所言的“代碼”形成了鮮明的對比。

簡單地說,代碼是數學的,算法是工程學的;代碼是具體的,算法是抽象的;代碼是確定的,算法是不確定的。

因此,如果代碼就是法律,挑戰的是法律的權威地位的話,那麽算法挑戰的是立法者的權威定位。因為在很多情況下,算法(尤其是深度學習算法)超出了人的預設、理解和決定。

對算法的規製沒有一個統一的模式,我們必須從場景出發,case by case的處理。我大致將算法問題分為三個前後相繼的場景。

首先是根據算法提供個性化的產品、服務或資訊,比如今日頭條的推送;其次是根據算法對產品、服務或資訊進行個性化定價;最後,根據算法對個人進行評價並作出自動化決策。

第一個場景涉及算法的自主性問題,即究竟是誰在選擇?是人,還是機器?第二個場景涉及算法透明性問題,即個人應當知道我被算計了。第三個場景涉及算法公平問題,即是否存在歧視和不公平對待。

三個不同的場景面對三種不同的問題。

那麽有沒有一個基本共同的解決思路?我的不成熟想法是:一方面要控制輸入。

我們都知道算法是要靠數據餵養,我們可以在在輸入端上控制,以解決算法公平問題。例如,GDPR明確規定個人特殊資訊不能作為自動化決策的輸入內容。

另一方面要是控制輸出。

因為黑箱的存在,很難按照民法中的過錯原則去判斷算法的過錯,可以回到之前通過對code writer的規製方式,即向算法的提供者施加嚴格責任,即過錯推定。為了防止責任過重阻礙創新,可以通過法定賠償限額、保險市場來進行責任分擔。

講師授課全部內容後續將整理出版,敬請期待。

獲得更多的PTT最新消息
按讚加入粉絲團