1.4K
記者呂胤甫/綜合報導
近期很常見的AI人工智慧技術,出現一種「深偽(Deepfake)」的技術應用,能結合AI仿真人學習,加上影像合成,能以非常逼真的方式,來達到換臉或是變聲等效果,縣警局提醒,新興的詐騙手法,恐怕會結合深偽技術混淆被害人,容易讓民眾受騙機率上升。
早期,深偽技術主要用於假訊息散布,或是誹謗以及侵犯個人隱私等犯罪行為,例如先前YouTuber小玉換臉事件,或是模仿名人進行冒名宣傳。然而,隨著這項技術的普及,其應用範圍逐漸擴展到娛樂、新聞、社交媒體,甚至進一步被詐騙集團學習應用。
縣警局針對深偽技術進行了研析,並列舉了深偽結合詐騙三大手法如下:
1.電話詐騙(猜猜我是誰):歹徒利用模仿特定人物聲音的功能,冒充親朋好友或其他知名人士的聲音,取信被害人後,以詐騙金錢和個人資料。
2.視訊詐騙:深偽技術可用於合成逼真的影片、語音,或結合視訊功能,冒充企業高層向下屬發送虛假指示,例如要求轉移資金或提供機密信息。
3.恐嚇詐騙:詐騙集團可能會將個人肖像移花接木,用以合成不雅照片,在寄送給被害當事人,藉此恐嚇勒索。
提醒民眾如果與熟人視訊察覺有異,或與生活中未見過的人或者自稱檢警的公務人員視訊,可要求對方轉頭、變換姿勢、在臉前揮手,藉由影像破綻分辨對方是否使用深偽AI技術。
縣警局局長盧廷彰呼籲社會大眾,不能再以「眼見而憑」看待,深偽技術結合詐騙手法,個人的聲音和影像遭到盜用後,民眾更難區分真偽,面對科技進步所帶來的犯罪威脅時,保持警惕和懷疑的心態,檢查來源的可信度,化被動為主動,確保信息的真實可靠,才不會落入詐騙集團陷阱。
版權所有,非經授權,不得轉載!