系統知識網 手機應用 警惕犯罪分子AI人工智能合成視頻和語音進行詐騙

警惕犯罪分子AI人工智能合成視頻和語音進行詐騙

現在利用開源項目的AI人工智能換臉合成視頻已經非常常見,當然合成這些視頻,一方面是展現技術,而一方面則是為瞭錢,現在犯罪分子已經開始合成以假亂真的語音來進行釣魚、詐騙。國外公司被語音詐騙174萬元:據外媒報道日前英國某能源公司遭到犯罪分子使。

現在利用開源項目的AI人工智能換臉合成視頻已經非常常見,當然合成這些視頻,一方面是展現技術,而一方面則是為瞭錢,現在犯罪分子已經開始合成以假亂真的語音來進行釣魚、詐騙。

國外公司被語音詐騙174萬元:

據外媒報道日前英國某能源公司遭到犯罪分子使用的語音釣魚,犯罪分子看起來已經提前收集這傢公司各種信息。例如犯罪分子知道這傢公司的母公司老板是德國人,同時也知道這位德國老板的大概聲音已經日常溝通的方式等。當然最關鍵的是網絡犯罪分子應該拿到德國老板的錄音片段,然後合成語音給英國這傢公司打電話要求緊急墊付。英國這傢公司的首席執行官接到電話後聽到那個熟悉的還帶有德國腔調的口音,因此沒有多傢懷疑就完成瞭付款。付款後德國老板再次致電要求繼續進行墊付但引起懷疑,經過確認後英國這傢公司發現自己遭到語音釣魚的詐騙。

語音合成詐騙增長率每年都會飆升:

在英國這傢能源公司的詐騙案例中所有款項被轉給匈牙利公司,然後立即分拆成多筆被轉移到墨西哥及其他地區。通常這類結果都是分散區域和多個現金賬戶後再取出匯總,由於屬於跨國犯罪這讓警方追蹤起來也變得非常困難。而近年來通過語音合成進行詐騙的增長率每年都會飆升,尤其隨著技術的發展語音合成能夠做到惟妙惟肖的地步。尤其是現在越來越多的合成工具內置機器學習技術進行模擬,這讓犯罪分子成功率越來越高也吸引更多犯罪分子。不過至少從現在來看不論是合成色情影片還是合成語音,都是當下需要面臨的問題且想要徹底解決也是非常困難,所以這是大傢在平時生活中極度需要警惕的新犯罪手法。

返回顶部