每日最新頭條.有趣資訊

AI時代,人們還有隱私可以保護嗎?

當AI越來越懂人類時,大家擔心,自己會不會變成“透明人”?AI能為人類創建一個安全可信的智能未來嗎?未來,AI會掌控世界嗎?當AI掀起一波又一波的熱潮,對於AI帶來的不安全性、不穩定性以及威脅性,人們也越來越關注。在2018世界人工智能大會安全高端對話論壇上,一系列關於AI安全的問題被拋出,而在論壇上正式發布的《人工智能安全發展上海倡議》中,也提出了應對人工智能安全風險應對和未來發展的建議。人工智能是一把雙刃劍,要用新的“遊戲規則”讓新技術與人類文明形成良性互動。

Part.1

應對智能機器的權利進行限制

不可否認,AI極大地解放了社會生產力,從各個角度為生活帶來更多的便利。但同時,也因為AI技術的不成熟和管理模式的不完善,人工智能安全事件頻發,衍生出一系列倫理、法律和安全難題,這是人工智能發展過程中無法回避的問題。一方面,人類在不斷設計出一代又一代更為先進的“智能”,另一方面,卻又小心翼翼地警惕著人工智能的“背叛”。

人類的規範、道德和AI是一對“矛盾體”,在眾多專家看來,在人工智能研發全過程中,需要優先設計安全與倫理問題,將人類規範和道德價值嵌入人工智能系統,最大限度的消除人工智能不利影響,為人類創建一個安全可信的智能未來。

愛因斯坦、達文西等都是高智商的代表,而有了智能的機器人,IQ值會遠遠超出人類,據預測,隨著電腦智能程度的不斷提高,20年後人工智能的IQ將達到10000,而且在數量上也將全面趕超人類。

未來如果人工智能擁有和人類相似的感知,是否也應當和人類一樣擁有一定的權利?百度CEO李彥巨集在本屆世界人工智能大會上表示,AI倫理必須堅持四個原則:AI的最高原則是安全可控;AI的創新願景是促進人類更平等地獲取技術和能力;AI的存在價值是教人學習,讓人成長,而非超越、替代人;AI的終極理想是為人類帶來更多自由與可能。

人工智能也許不具有人類的價值觀和情感,但AI仍需構建自己的倫理體系。峰橋集團總裁陳實告訴《IT時報》記者,各國都應重視對人工智能安全倫理規範的思考,將技術發展與社會倫理置於相同的環境下充分思考,減小人工智能帶來的倫理衝擊,保證人工智能在全世界共同的倫理規範內健康發展。“人類賦予智能機器某些權利是合理的,智能機器應該擁有得到尊重的道德權利。不過,在賦予智能機器某些權利的同時,我們更應該對智能機器的權利進行限制,以確保人工智能機器對人類是友好的。”

Part.2

AI造就“透明人”

華東政法大學人工智能與大數據指數研究院院長高奇琦曾提出“透明人”的概念,他說未來的人都是透明人,這是無法阻擋的趨勢。“如果有心人專門去搜集你在微信朋友圈、微博及其他社交工具上留下的資訊和痕跡,很容易就得到個人隱私數據。”高奇琦告訴記者。

近年來,關於數據泄露的報導時有發生,比如最近發生的華住酒店泄露用戶隱私、臉書5000萬用戶的個人資訊被英國劍橋分析公司竊取等,在大數據面前,人類幾無隱私可言。但是,大數據的應用又和人工智能緊密關聯,因此,誰擁有大數據的所有權、使用權、由誰來負責大數據的監管以保證其被合理合法使用、如何保護隱私和資訊安全等就成為人工智能時代極其棘手的問題。

碁震KEEN公司創始人王琦向《IT時報》記者表示,在人工智能時代,使用數據是不可避免的,而且資訊泄露也並非是人工智能時代獨有的問題。“但如果到了人工智能時代不加以約束的話,後果要嚴重得多。”王琦表示,他自己非常介意在使用各種智能設備時要開啟攝影頭等各種權限,但是不賦予權限就沒法使用,物聯網可能使個人隨時處在智能設備的監控之下。

如何解決這個問題?需要從法律層面和技術層面共同解決。“法律能讓廠商在研發過程中更注重安全,也能提高違法成本。用法律的手段讓人工智能行業的從業者加強自律,保持敬畏之心。”王琦說,上海優刻得資訊科技公司CEO季昕華表示,需要技術手段對人工智能進行約束,“讓AI可以分析數據,但是不獲取數據,這應該是技術層面努力的方向”。

對此,王琦認為,其公司在進行漏洞攻擊時,經常需要采集各種數據,采集之後會對數據進行脫敏處理,“但是如果用人工智能的‘眼光’審視這些脫敏數據,就真的安全嗎?人工智能就一定不會從脫敏數據中推測出關鍵性的結論嗎?現在還很難判斷。”

Part.3

用AI打擊黑產

人工智能時代,網絡安全形勢更加嚴峻和複雜,但人工智能技術也能在網絡安全漏洞檢測、惡意軟體識別、不良資訊智能審核、防範網絡犯罪等方面發揮獨特作用。可以說,人工智能也在賦能網絡安全。

當下的新型網絡安全態勢感知的基本原理是利用數據融合、數據挖掘、智能分析和可視化等技術,實時直觀地顯示網絡安全狀態,並對網絡安全趨勢做出預測,為網絡安全威脅預警和防護提供參考。“人工智能在安全態勢感知系統的運用主要分為五個步驟,第一步是提取網絡中的安全設備(如防火牆)、網絡設備(如路由器、交換機)、服務和應用(數據庫、應用程式)的數據,對數據進行標準化和修訂以及標注事件基本特徵等;第二步是對在傳感器采集環境中獲取的數據做去噪、雜質過濾等預處理;第三步融合不同來源的數據;第四步選擇人工智能算法進行態勢識別、態勢理解和態勢預測;最後一步完成關聯分析和態勢分析,形成的態勢評估結果以分析報告和綜合網絡態勢圖呈現,輔助決策。” 騰訊安全管理部高級總監毛晟斌說。

以騰訊守護者計劃為例,其基於AI人工智能和神經網絡的分析能力,引入多維度的動態驗證機制對抗相關黑產。去年,守護者計劃安全團隊利用上述技術協助警方打擊“快啊答題”“光速打碼”這兩個國內最大的使用人工智能神經網絡破解識別驗證碼的打碼平台黑產團夥。

Part.4

“應給人工智能配刹車”

正如中科院院士何積豐所說,技術是中性的,“人工智能能對惡意代碼進行預測和破解,但是也能成為開發工具的漏洞,此外,人工智能算法具有不確定性,通常我們不知道人工智能怎麽工作、怎麽得出結果。”

雖然人工智能在各個領域如同聲傳譯、寫新聞稿、協助醫生看病、戰勝圍棋世界冠軍等讓人類刮目相看,但在何積豐看來,如果把人工智能分為弱人工智能、通用人工智能和強人工智能,當下勉強可以算得上是通用人工智能。

中國資訊通信研究院發布的《人工智能安全白皮書》顯示,在人工智能相關的政策法規、標準規範上,目前各國大多處於建設初期或研究階段。

中國資訊通信研究院安全研究所高級工程師牛金行介紹說,以無人駕駛為例,美國、德國都將安全作為自動駕駛第一準則,但均未形成統一的安全評測標準體系和方法。同時,各國政府目前多數靠約束企業自身開展測試驗證工作,缺乏獨立的第三方評測認證機構。除了要解決人工智能使用中基本的安全問題外,使用者與服務提供者的責任界定也應予以明確界定。

去年7月,國務院在印發的《新一代人工智能發展規劃》中提出,到2020年,我國人工智能核心產業規模超過1500億元,帶動相關產業規模超過1兆元。此外,人工智能的“獨角獸”不斷湧現。

人工智能能為保障國家網絡安全等提供新手段和新途徑,但在應用落地過程中,因為技術的不確定性,會產生諸多的挑戰。在上海國際問題研究院全球治理研究所副研究員魯傳穎看來,應該給人工智能配刹車,讓產業更快更穩。(完)

中秋節到啦,附上“流心月球”一張

中秋快樂

編輯:挨踢妹

圖片:圖蟲創意、月球by risvan @荒野天氣台

來源:《IT時報》公眾號vittimes

獲得更多的PTT最新消息
按讚加入粉絲團