易信資訊

【截 3 秒限動就能偷你的聲音】小心社群媒體讓你成為下一個社交工程受害者

在 AI 模仿技術盛行的今天,人們幾乎可以透過 AI 模仿任何歌手或公眾人物的聲音。無論是想聽怎樣的翻唱版本,還是想讓最喜歡的電影片段配音由誰來完成,都可以自己來操作。現如今,聲音的複製不再是大明星的專利,只需要短短幾分鐘,我們的聲音也可能輕易被冒用。

隨著生成式 AI 流行,偽造聲音門檻降低。語音資安技術公司Pindrop指出微軟的語音合成模型VALL-E X只需三秒的假聲音檔就能複製任何內容。

近年來,隨著技術的不斷進步,以深度偽造技術為基礎的語音詐騙攻擊越來越普遍。最近,《紐約時報》訪問了語音安全公司Pindrop,他們分享了一個令人驚訝的數字:許多美國大型金融機構每年平均收到數千到一萬通詐騙電話。然而,去年底,首家提供語音身份驗證解決方案的供應商Nuance遭到了人工智能仿聲詐騙攻擊的打擊,這引起了業內的關注。

語音詐騙攻擊是一種利用深度偽造技術製作出的虛擬語音來進行欺詐活動的手段。這些仿聲語音可以模仿真實人的聲音和語音特徵,進而欺騙受害者進行一系列的詐騙行為。這種技術的進步使得詐騙者可以更加巧妙地進行欺詐,讓受害者難以分辨虛實。

根據Pindrop的統計,金融機構是語音詐騙攻擊的主要目標。他們發現,許多大型金融機構每天都會接到大量的詐騙電話,這些電話以各種手段試圖騙取個人敏感信息或進行盗竊活動。傳統的詐騙手段已經讓人們警覺,所以詐騙者不得不尋找新的方法才能成功進行詐騙,而仿聲技術的出現為他們提供了一個完美的解決方案。

對於金融機構來說,語音詐騙攻擊不僅會造成經濟損失,還會危及客戶的信任和機構的形象。因此,解決這個問題變得至關重要。供應商Nuance作為首家提供語音身份驗證的公司,其技術被廣泛應用於金融機構的客戶服務中。然而,去年底Nuance遇到了人工智能仿聲詐騙攻擊,這給業內帶來了巨大的震動。這次事件讓人們意識到,即使是最先進的語音身份驗證技術也不是絕對安全的。

未來深偽語音詐騙將變得非常迅速。駭客可以在獲取個人資料後,透過目標對象的社群媒體上,例如Instagram或Tik Tok,獲取所需音頻樣本,輕鬆假冒身份並盜取錢財。特別是相對富有或具備一定社群知名度的客戶,面臨的風險更大。

然而,社交工程型詐騙,特別是假冒熟人來電的詐騙手法,反而是最難防範的。詐騙集團通常利用這種手法迅速獲利,命中率最高。目前雖然有其他方式可以驗證對方身份,但還沒有特別有效的阻止這種詐騙的方法。

Scroll to Top