語音助理暗藏「海豚攻擊」?超聲波入侵恐成安全大隱憂

  • 分享

▲美國普林斯頓大學研究發現,科技大廠推出的語音助理可被人類難以聽聞的超聲波操控,成為安全上的隱憂。(圖/ Getty Images 提供)
隨著科技革新,越來越多的智能語音助理走入人們生活當中,例如 Google Assistant 、蘋果 Siri 、亞馬遜 Alexa 、三星 SVoice 等。然而,美國研究團隊卻發出警告,指人們耳朵所聽不見的超聲波將成為惡意操縱這些語音助理的一項武器。

語音助理能夠透過使用者發出的指令做出相應動作,例如,向蘋果智能居家助理Homekit 說出:「 Hi ,Siri 」,即可開啟 Siri 並對其下指令,進行撥打電話、開啟網頁、呼叫 Uber 等。然而,據《紐約時報》報導,日前已有研究人員發現,駭客可以將音頻超出人類可聽聞範圍之「超聲波」隱藏在歌曲中,竟可激活語音助理。

研究人員分別在一段長4 秒的音樂片段和一段演講音頻中加入超聲波:「 Okay Google ,請打開 evil.com 。( okay google browse to evil dot com )」的指令,並讓語音識別軟體進行分析。不出所料地,語音軟體收到其指令為「 Okay Google ,請打開 evil.com 」。日前 Google 向英國廣播公司 BBC 表示,根據網路謠傳透過超聲波能向旗下語音助理下達指令,已展開調查。

此外,有中國大陸網友測試,在數公尺之外撥放超聲波同樣可以激活AppleSiri 以及 Android 手機中的語音助理。美國普林斯頓大學工程學院的研究發現,以此方法同樣可向 Amazon Echo 下達指令,無疑成了安全上的一大隱憂,有心人士可能將超聲波隱藏於網路影片或公然播放的廣播中,激活語音助理於無形。

然而使用者也莫需過度恐慌,例如蘋果為顧及使用者隱私,在語音助理被下達可能涉及使用者個資之指令,如開啟網頁時,需透過 iPhone 先行解鎖。

倫敦大學( UCL )資訊安全研究博士 Steven Murdoch 表示,雖然語音智慧助理並未設計用來接收超聲波,但是研發者仍需防患未然。對此,包含 Google 及亞馬遜皆予以回應,表示基於重視使用者隱私,將對此展開調查並做出因應措施。

相關新聞

葛萊美得主錄音 Google AI模擬人聲真假難辨

微軟語音助理攜亞馬遜Alexa 力抗Siri
社群回應
PChome會員回應