每日最新頭條.有趣資訊

在算法社會,公正會是奢望嗎

開欄語:

當下,人工智能等前沿科技展現出了無窮魅力,也引發人們的種種憂思。這些科技將給社會帶來哪些深刻的變化?凝聚了人類最高智慧的前沿科技,究竟會走向何方?在《智道》欄目中,法律人將給出他們的答案。

算法社會可能會是一個比現有社會更不平等的社會。這種不平等是從起點到結果的全方位的不平等

於興中

2007年11月26日,聯合國第62屆大會把每年2月20日確定為“世界社會公正日”,旨在本著正義、公平、民主、參與、透明、問責和包容的原則,促進各國和全球經濟的發展和社會公正。

社會不公正乃是所有社會的夢魘。無論專製社會還是民主社會,都必須要面對不同程度的社會不公。資產擁有的不平等、收入的不平等、就業機會的不平等、性別上的不平等以及獲得信息資源機會的不平等,這些都是現代社會難以解決的困難。而今天,在本來就不公正的基礎上又增添了算法社會中的不公正。

算法社會一定是精英社會

在算法社會、大數據、人工智能和互聯網的背景下,對資源的佔有和對科技知識的掌握導致了財富、身份、機會和使用權的極不平等,從而惡化了社會不公,使得社會正義的前景越來越渺茫。在這樣的背景下,社會公正日到底還有什麽意義?我們還能實現社會公正嗎?

如今,我們從事的所有事情幾乎都與算法相聯繫。讀書、購物、找房、求職、會友……無不參考或依賴網絡服務商提供的平台。我們在網上的行為和交易都會留下足跡,進而成為“大數據”的一部分。網商將會根據你的喜好和購物習慣向你進行推薦,而我們則有意無意地遵從別人為自己安排好的方案——這裡的“別人”,很有可能是一台機器。

大數據、人工智能、算法、數據解析、機器學習、區塊鏈,這些概念每天都在我們眼前晃來晃去,然而,我們中間又有多少人真正了解它們?算法社會對人的素質的要求非常高,沒有相當的教育水準是難以適應的。這就注定了算法社會一定是精英社會。少數人會成為主宰,而大多數的人只能順從。算法社會可能會是一個比現有社會更不平等的社會。這種不平等是從起點到結果的全方位的不平等。

值得警惕的“技術黑幫”

這種不平等首先是對資源佔有的不平等。在數字時代,數據是最重要的資源,對數據的佔有至關重要。目前的情況是,只有為數不多的幾家公司具有佔有大量數據的能力,競爭也只能在很小的圈子裡進行。美國作家艾米·韋伯在其著作《九大巨頭:技術巨頭和他們的思維機器如何扭曲人性》中警告人們,這些科技巨頭已經將人工智能的發展置於危險的道路上。在美國,谷歌、微軟、亞馬遜、Facebook、IBM和蘋果受到資本主義市場短期需求的拖累,無法長期、周密地規劃人工智能的發展軌跡。韋伯把這幾家公司名稱的第一個字母串在一起,稱它們為“技術黑幫”(G-MAFIA)。

其次是對機器創造的財富的分配。機器的廣泛應用為資本家節省了大量用人成本。但是,人們理想中的那種上午工作、下午釣魚的美好時光並沒有到來。相反,事實已經被證明:資本家首先考慮的是解雇員工,而不是讓他們過得更開心。而資本家把利用機器創造的財富分配給被取代了的員工的可能性並不大。財富最終自然而然地掌握在少數擁有人工智能的大公司的所有者手中。貧富差距正在而且將會被進一步拉大。所謂“後勞工”社會就是數字上有優勢的寡頭及其技術精英團隊和當權者同謀共贏的數據資本主義社會。而普通人則既不能掌握數據,又不能和機器人合作,更不可能設計算法,唯一可能的是成為被算法社會邊緣化的真正的“閑人(an irrelevant person)”。

如何在算法社會實現公正

對於上述可能到來的危機,並非沒有應對之策。

通過公共機構促進社會正義是一個由來已久的傳統。縱觀歷史,人類所取得的進步既來自於偉大的思想,也依靠及時的制度保障。在數據時代,在算法社會,為了保障社會正義,必須有針對性地建設系統而專業的公共機構,全面監管人工智能、大數據算法等新科技的開發和使用,制定合理的分配和再分配政策。這些專門機構應該擁有相應的權力,諸如質量認證的權力、制定政策和計劃的權力、起訴違法的權力以及行政處罰的權力。此外,還須針對這些權力大致規定實施的程序和大體要求。這個機構一定要吸收有關專家作為成員,專門監督自動決策算法的公平和透明。沒有公共機構制定和實施的強有力和連貫的再分配政策,社會公正就不可能實現。

法律規製顯然也是必不可少的措施。通過政策和法律明確規定鼓勵或限制的範圍和內容,體現人類對自己的創造物的掌握能力和對科學技術規律的充分尊重。既要保證新興科技的開發和利用,也要保障消費者權益。目前,世界上已經有不少國家制定了規管大數據、人工智能、區塊鏈等研發的法律。一個新的法律領域正在逐漸形成。

還有一個重要的措施是算法問責。公共機構也許不應該要求人工智能或網絡公司披露他們的源代碼,或者對他們可以使用的算法類型予以限制,但應該堅持算法問責製,即要求算法系統採用各種防範措施,以確保運營商可以驗證它是否按預期運行,並確定和糾正有害後果。這樣做的好處是,它會使運營商對其算法可能造成的危害負責,而運營商在算法如何影響社會方面擁有最大的影響力。以招聘為例,雇主必須遵守招聘中的反歧視法律,無論他們是否是使用算法來作出這些決定的。

然而,如果公共機構、企業、運營商在維護社會正義方面盡不到責任時,個人應該怎麽辦?在算法社會,權利仍然是渺小的個人面對強大的企業、社團及政府機構的最有效的保護裝置。比較有意義的應該是認識並掌握個人的數據權。個人的數據權首先是一種財產權。這就是說,數據資本家在收集和使用個人數據時,必須要考慮個人的利益。個人數據被人使用時,應該得到個人的同意,並給予合理比例的補償。當個人數據權受到侵犯時,個人應該有通過法律保護自己權利的便利。

當然,一種權利的興起、發展和被接納,並不是一蹴而就的事。很多時候,這是需要爭取的,也離不開輿論的支持。知識分子、學者和科學家有義務幫助公眾認識自己的數據權,培養在算法社會中生存的技能和意識,提高整個社會的算法水準,發展並普及數據文化。

責任編輯:高恆濤

獲得更多的PTT最新消息
按讚加入粉絲團