news-details
「深偽技術」成為詐騙集團的現代犯罪手法。(圖 / shutterstock)

有別以往的眼見為憑,現在已不復見!「深偽技術」(Deepfake)的進步帶來劃時代意義,運用先進科技在電影拍攝還原或改變演員容貌,能創作出更多元精采影視作品,然而,若遭不肖人士將此科技用於「詐騙」,對民眾肖像隱私之人格權及財產法益,會是一大威脅。

早期,Deepfake專用於替換人臉的軟體名稱,以「自動生成編碼器」的深度學習系統為基礎,透過AI掌握對象特徵點,訓練判別生成高度相似的臉孔影像或聲音。

 

目前,Deepfake已成為利用深度生成技術,生成影像、聲音、文字等多媒體內容的總稱,包括臉部特徵變換、性別與年齡轉換、圖像風格轉換。

 

深偽內容氾濫,成詐騙犯罪手法

近期,有詐騙方利用Deepfake影片來詐騙金錢、感情的案例,演變成另一場科技犯罪風暴。

 

案例中,一間外商公司的執行長,因接到英國母公司上司一通電話,要求他緊急將新臺幣620萬元匯至指定供應商帳戶,而該執行長自認對上司聲音相當熟悉,便不疑有它,隨即派人轉帳。

 

然而,上司聲音是透過聲音轉換(Voice Conversion)技術偽造而成,單純的「聲音深偽」犯罪手法,對嫌犯而言更加容易,使民眾降低戒心而上當受騙。

  • news-details
  • 深偽技術獲取門檻變低,有更容易取得、偽造時間縮短的趨勢。(圖 / shutterstock)

撥打165,防深偽技術詐騙

隨著近年來深度學習技術、模型技術的快速發展,大幅提升做出高仿真內容偽造的效能,深偽技術變得更容易取得、偽造時間縮短、技術獲取門檻變低的趨勢。

 

在AI時代中,民眾遇到親友或陌生人,以影片或電話請求借錢、威脅匯款等,應以其他方式聯繫當事親友,以多方聯繫管道或撥打165反詐騙諮詢專線查證,才能避免AI科技造成的危害或財產損失。

 

相關報導》

詐騙戰場AI變臉、台灣六大詐騙知多少? 人人當學習「善」科技影響力

  • news-details
  • 撥打165反詐騙諮詢專線查證,才能避免AI科技造成的危害或財產損失。(圖 / 刑事局 提供)
分享
意見反應