有別以往的眼見為憑,現在已不復見!「深偽技術」(Deepfake)的進步帶來劃時代意義,運用先進科技在電影拍攝還原或改變演員容貌,能創作出更多元精采影視作品,然而,若遭不肖人士將此科技用於「詐騙」,對民眾肖像隱私之人格權及財產法益,會是一大威脅。
早期,Deepfake專用於替換人臉的軟體名稱,以「自動生成編碼器」的深度學習系統為基礎,透過AI掌握對象特徵點,訓練判別生成高度相似的臉孔影像或聲音。
目前,Deepfake已成為利用深度生成技術,生成影像、聲音、文字等多媒體內容的總稱,包括臉部特徵變換、性別與年齡轉換、圖像風格轉換。
深偽內容氾濫,成詐騙犯罪手法
近期,有詐騙方利用Deepfake影片來詐騙金錢、感情的案例,演變成另一場科技犯罪風暴。
案例中,一間外商公司的執行長,因接到英國母公司上司一通電話,要求他緊急將新臺幣620萬元匯至指定供應商帳戶,而該執行長自認對上司聲音相當熟悉,便不疑有它,隨即派人轉帳。
然而,上司聲音是透過聲音轉換(Voice Conversion)技術偽造而成,單純的「聲音深偽」犯罪手法,對嫌犯而言更加容易,使民眾降低戒心而上當受騙。
撥打165,防深偽技術詐騙
隨著近年來深度學習技術、模型技術的快速發展,大幅提升做出高仿真內容偽造的效能,深偽技術變得更容易取得、偽造時間縮短、技術獲取門檻變低的趨勢。
在AI時代中,民眾遇到親友或陌生人,以影片或電話請求借錢、威脅匯款等,應以其他方式聯繫當事親友,以多方聯繫管道或撥打165反詐騙諮詢專線查證,才能避免AI科技造成的危害或財產損失。
相關報導》
詐騙戰場AI變臉、台灣六大詐騙知多少? 人人當學習「善」科技影響力