每日最新頭條.有趣資訊

AI犯錯誰背鍋?算法透明製PK算法問責製

編輯 | 麻粒兒

微信 | ai_xingqiu

網址 | 51aistar.com

編者注:本文原作者Joshua New是一名高級政策分析師,主攻數據、科技和公共政策的互動研究。

雖然人工智能曾被譽為開啟經濟繁榮新時代的關鍵,但如今,政策制定者們卻面臨著一波又一波有關確保人工智能公平、道德和安全的呼聲。

紐約市長de Blasio最近宣布成立美國第一個監測和評估算法使用的特別工作組。幾天后,歐盟制定了全面的新數據保護規則,要求公司能夠向消費者解釋所有自動化決策。像埃隆·馬斯克這樣備受矚目的批評者,呼籲政策制定者采取更多措施來規範人工智能。

不幸的是,兩個最受歡迎的想法——要求公司披露算法源代碼並解釋它們如何做出決策以及通過規範商業模式和內部運作,會導致弊大於利,並不能讓這些公司對結果負責。

第一個提議的做法——“算法透明度”——要求公司披露其AI系統中使用的源代碼和數據。除了過於簡單之外,這個想法並不具有作為廣泛解決方案的優點。

許多AI系統太複雜,僅通過查看源代碼是無法完全理解的。一些AI系統依賴於數百萬個數據點和數千行代碼,而且決策模型在遇到新數據時會隨時間而產生變化。

期望即使是最積極的、資源重組的監管機構或有關公民,能夠發現該系統的開發人員可能無法做到的所有潛在瀆職行為,是不現實的。

此外,並非所有公司都有開源商業模式。要求他們披露源代碼會降低他們投資開發新算法的動力,因為這會讓競爭對手山寨。與美國在人工智能的主導地位上競爭激烈的中國不良行為者,經常蔑視知識產權,並可能會使用透明度要求來竊取源代碼。

另一個做法——“算法可解釋性”——將要求公司向消費者解釋他們的算法如何做出決策。該提議的問題在於AI系統中的可解釋性和準確性之間經常存在不可避免的折衷。

算法的準確性通常隨其複雜性而變化,所以算法越複雜,解釋就越困難。雖然隨著對可解釋性人工智能研究的成熟,這可能會在未來發生變化,比如DARPA在2017年投入了7500萬美元用於解決這一問題,但目前,可解釋性的要求將會付出準確性的代價。

這是非常危險的。例如,對於自動駕駛汽車來說,能夠解釋事故重要,還是避免事故重要?解釋比準確性更重要的情況很少見。

政策制定者不應該要求公司披露他們的源代碼或限制他們可以使用的算法類型,而是應該堅持算法問責製——算法系統應採用各種控制措施來確保運營商(即負責部署算法的一方)可以驗證它是否按預期運行,並確定和糾正有害後果的原則。

圍繞算法問責製構建的政策框架將具有幾個重要好處。

首先,它會使運營商對其算法可能造成的任何危害負責,而不是開發人員。運營商在算法如何影響社會方面擁有最大的影響力,而且他們已經必須遵守各種旨在確保他們的決定不會造成傷害的法律。例如,雇主必須遵守招聘中的反歧視法律,無論他們是否是使用算法來做出這些決定的。

其次,讓運營商對結果而不是算法的內部運作負責,可以讓他們專注於確保算法不會造成傷害的最佳方法,諸如信心措施,影響評估或程式規律等。

例如,大學可以在部署人工智能系統,預測哪些學生可能會輟學之前進行影響評估,以確保其有效和公平。與透明度或可解釋性要求不同,這將使大學能夠有效地識別任何潛在的缺陷,而不禁止使用複雜的專有算法。

這並不是說透明度和可解釋行就沒有它們的位置。例如,透明度要求對刑事司法系統中的風險評估算法來說是有意義的。畢竟,長期以來,公眾都有興趣要求司法系統接受最高程度的審查,即使這種透明度可能無法解釋先進的機器學習系統如何運作。

同樣,“平等信用機會法”等法律要求公司向消費者提供足夠的解釋,才能拒絕給予信貸。無論公司是否使用AI來做出決策,消費者仍然有權獲得這些解釋。

關於如何使AI安全的辯論忽視了對細微差別、有針對性的監管方法的需要,迅速的處理算法透明度和可解釋性而不考慮它們的許多缺點是不行的。

想要減輕AI造成的潛在危害是沒有錯的,但到目前為止提出的解決方案都過於簡單,過於寬泛的解決方案在很大程度上是無效的,甚至可能弊大於利。算法問責製為確保組織負責任地使用AI提供了更好的途徑,使其真正成為社會的福音。

獲得更多的PTT最新消息
按讚加入粉絲團