每日最新頭條.有趣資訊

連接與失控:面對算法社會的來臨,如何構建算法信任?

作者簡介:

張欣,對外經濟貿易大學法學院副教授、院長助理、對外經濟貿易大學數字經濟和法律創新研究中心執行主任。主要研究方向為算法治理、平台責任、社會信用體系、公眾參與和立法決策。目前主持多項國家級、省部級科研項目。曾在《法商研究》《法學評論》《環球法律評論》《中國法律評論》等法學期刊發表文章。著有《媒體和立法的良性互動:以議程設置為視角》一書。兼任中國法學會網絡與信息法學研究會理事、中國法學會立法學研究會理事、亞洲法律協會ASLI Fellow。曾應邀於荷蘭、意大利、美國、新加坡、墨西哥等地進行英文學術報告。

提要

當我們懼怕算法時,懼怕的並非“算法黑箱”,也並非算法歧視

原文首發於470期《法治周末》12版

原題:算法社會的恐懼之源

1

算法如何改變我們的生活

當下,我們每個人如果環顧自己的生活,就會豁然發現:大數據時代算法技術應用的日益普及,的確使我們大步流星地邁入到了一個充滿顛覆性和變革性的算法社會。

在算法社會中,不僅新聞傳播、購物推薦、投資理財、職場評估、司法審判、智能警務等各個領域都迎來了顛覆性的變化,甚至在極為私密地尋找人生伴侶這種看似一切隨緣的人生大事上,也可能出現丹·斯萊特在《算法時代的愛情》一書中描繪的那樣:也許有一天,科學算法會幫你選定“靈魂伴侶”。只不過,“數字配對下的愛情”讓一切偶遇都變得不再神秘,算法時代的愛情可能很難再讓人產生“終於等到你”那般的刻骨銘心。

當算法像一隻無形之手開始安排著我們的生活時,很多人萌生了一種焦慮和不安。

如果去網上書店查閱一下與算法相關的社會科學書籍,就會發現這樣的現象:大量的書籍和文章描述著算法可能帶來的危機。“算法歧視”“算法合謀”“算法霸權”“算法黑箱”“算法短視”等術語甚囂塵上,時刻警醒著我們:算法社會的到來將會伴隨著新一輪的技術信任危機。

因此,在不得不張開雙臂擁抱算法社會的來臨之時,不妨停下匆忙的腳步,去觀察算法社會到底如何改變我們的生活以及從本質上追問——當我們懼怕算法時,到底在懼怕什麽?

2

當我們懼怕算法時,到底在懼怕什麽

如今,一個主流“數字青年”可能早已習慣於這樣一種生活方式:用計步器衡量自己每天的活動軌跡;用膳食APP記錄自己每餐攝入的卡路裡;用智能手環監測自己的睡眠;用點讚數量去衡量友情和人脈。

我們應當意識到,當算法步入社會情境,進而產生“算法歧視”“算法合謀”等社會問題之前,算法首先帶來的是人們自我認知方式的實質性改變。

人們在現實空間的本我之外,於虛擬空間通過數字化技術構建了另外一個自我。伴隨著兩個世界的互通和連接,兩個自我不斷產生複雜互動。

在積極的層面,美國《連線》雜誌的主編加裡·沃爾夫和凱文·凱利提出“量化自我”這一概念,用以描述“通過自我追蹤進行自我認知”的社會數字現象,並希望借此引領人們步入新型數字化生活。

而在消極層面,社會化情境下的數字化自我認知可能會演變為英劇《黑鏡》中描繪的可怕場景:借助數字社交評分系統建構出的僵化、失控的社會秩序,將現實構築的傳統秩序和規則徹底顛覆。算法可能通過形成新的網絡空間社交規則,徹底改變人們作為社會主體的存在方式。生活在這樣的世界中,只能根據算法設計者設定的數字化社交規則不停“表演”而獲取評分。由此伴隨而來的則是自我的迷失和個人主體性的消解。

這種現象並非危言聳聽。在美國,已經出現了因為在網絡社交平台上的好友過少、互動過低而導致在旅遊服務網站上預定房間遭拒的諷刺案例。因此,對我們每一個人而言,算法出現並迅速佔據商業和公共決策場域的這一事實,首先意味著客觀上個人主體性的消解。這意味著,在算法作出與人們利益悠關的決策時,人們可能處於一種無從知曉、無力參與、無法異議並最終難以抵抗的“失控”狀態。

此外,基於以下兩個層面的原因,失去對算法決策的選擇權和控制權將令人更加手足無措。

其一,在技術邏輯上,算法架構的複雜性不斷增加。深度學習算法雖然常作出績效良好的決策,但卻無從了解其內部運作的邏輯和達成決策的依據。與此同時,算法的可靠性和準確性也尚難通過合理的機制設計加以系統保證。因此算法決策及其應用雖已強勢展開,但卻尚未在功能層面建立穩定良好的技術信任。

其二,在治理邏輯上,傳統設定的以聲譽機制(如職業資格認定)、決策約束程序(如通知、公告、評論、參與、回避、異議、救濟)為內核的,旨在避免決策武斷和恣意、保證決策可信和正當的制度架構在算法決策面前均顯失靈。這意味著,從治理層面,面對看似理性的算法,我們卻尚未探索出一套行之有效的機制建立治理層面的技術信任,從而對算法進行約束使其具備算法理性這一功能特質。

所以,當我們懼怕算法時,懼怕的並非“算法黑箱”(實際上人腦決策也是黑箱),也並非算法歧視(現實社會中也存在形式各異的歧視現象)。從實質上說,我們懼怕的是當算法高效、系統性地輔助或者智能性地獨立作出一個個決策時;當算法運用數據和模型把虛擬世界和現實世界的我們相聯結,將我們的過去、現在和未來相聯結時,這種由“聯結”帶來的“失控”狀態。

這種失控狀態意味著我們失去了對算法的技術信任,意味著我們不希望對算法應用產生過多的依賴,意味著我們面對複雜、開放、多元的算法並與其產生互動之時心生恐懼。

3

如何實現算法信任

明確了我們對算法產生恐懼的根源,有助於審視和思考如何化解算法適用帶來的系列問題。畢竟與人類決策相比,已經有研究表明:在股票股價、房地產鑒定、刑事審判、人力資源績效評估、財務審計等諸多決策領域中,算法的整體表現更優。

由於決策偏差和決策噪音的存在,人類決策常出現過度風險規避、決策短視、情緒影響等多種決策偏差。相信很多人都聽過法官審判時的“午餐仁慈時刻”現象。這一現象的產生,恰是由於人類決策時精神資源伴隨著時間變化發生了逐步退減和消耗,因此客觀上導致決策會在不同時間和條件下產生波動。

所以,面對算法社會的來臨,我們應當如何發現“算法之美”,構造安全、公平、透明、可問責的算法,從而邁向信任算法的社會呢?

宏觀來看,算法治理是一項複雜而長期的工程,需要算法設計者、算法使用者、相對主體(在不同的算法應用場景下,可能受到算法影響的利益相關者)、立法者、監管者、媒體等協同合作構築良性的技術運行生態,逐步建立平衡個體利益和社會福利的運行環境。從中觀層面看,解決這一問題的核心和關鍵則在於通過豐富、高效的制度設計賦予個體以選擇權和掌控感。落實於微觀的制度設計上,需要立法者在探索賦予個體一系列知情、參與、異議、救濟的新型自動化決策權利時,還應從外部探索算法影響評估制度和算法問責機制,從而在治理層面建立算法信任、發現算法之美。

—END—

獲得更多的PTT最新消息
按讚加入粉絲團