每日最新頭條.有趣資訊

黑客能通過聲音黑掉你的設備 Siri竟成幫凶

黑客將人類聽不到的聲音頻率嵌入到歌曲中,能對周圍搭載語音助手的設備進行廣泛攻擊。

在一些影視節目中,黑客攻擊目標電腦的方式可謂是千奇百怪,甚至是通過“聲音”。之前我們覺得這種方式有些天方夜譚,但現在事實告訴我們,隨著 Siri 等語音助手的成熟,通過聲音攻擊你的設備將變得易如反掌!

今天紐約時報發文稱,美國和中國的研究人員一直在進行一項測試,通過一些人耳聽不到的聲音(高頻或低頻)來觸發 Siri 這樣的智能語音助手,然後在它們的幫助下完成用戶壓根沒有下達過的命令,比如說訪問網站、下載檔案、撥打電話等。

先來看看加州大學伯克利分校和喬治敦大學的研究成果,他們成功地將一串人耳聽不到聲音嵌入到了音樂或通話錄音中,當這份錄音在亞馬遜 Echo 或蘋果 iPhone 旁邊播放的時候,用戶可能只聽到了歌聲或說話的聲音,但 Siri 和 Alexa 語音助手卻已經將一份商品加到了購物車中。當然,經過測試,從網上銀行取錢等操作也同樣能夠完成。

那麽這究竟會導致什麽呢?試想一下,如果嵌入了惡意聲音的一首歌在商城等公共場所播放了,就意味著商城中所有顧客都將不知不覺地被攻擊。考慮到日常生活中充斥的聲音實在是太多了,這種攻擊將會變得無孔不入,十分可怕。

完成這項研發的博士生 Carlini 表示,自己還能夠讓這種攻擊方式變得更加隱蔽,雖然現在沒有證據表明這項技術已經在實驗室以外的地方投入使用,但不法分子遲早會盯上的,甚至或許已經有黑客在做相同的研究了。

其實去年普林斯頓大學和浙江大學就進行了類似的聯合測試,表示 Siri 等語音助手能夠通過人類聽不到的聲音頻率被激活,這項技術被命名為“ DolphinAttack ”。不過當時研究人員表示 DolphinAttack 只在有限的範圍內生效,這意味著使用時必須靠近設備。

而根據伊利諾伊州立大學香檳分校的一項研究,這個範圍其實是能夠擴大的,最遠能夠長達25英尺(7.62米)。並且他們還有信心能攻破市場上的所有相關語音助手產品,但這並不存在任何惡意,只是想提醒這些公司注意一下這一情況,看看是不是能夠將其修複。

不過 MacRumors 表示,蘋果在這方面其實“防著一手”,當我們試圖完成一些敏感操作,比如通過 HomeKit 讓 Siri 打開智能門鎖的時候,就需要在 iPhone 或 iPad 上輸入密碼。

獲得更多的PTT最新消息
按讚加入粉絲團