台資安院揭示防範AI影片詐騙技巧,助民眾識破假影片
Man hands typing in laptop, glowing AI hologram with earth sphere and abstract connection lines, double exposure. Concept of artificial intelligence, futuristic technology and computing
【大紀元2026年01月25日訊】(大紀元記者吳旻洲台灣台北報導) 隨著人工智慧(AI)技術的迅速發展,網路上的生成影片數量日益增多。台灣資安院研究員戴毓辰表示,AI假影片主要分為四大類:名人換臉色情片、偽冒名人詐騙、AI虛擬化身內容農場及搬運Sora影片。民眾可透過留意AI生成標註、以圖搜圖、檢查影片情境合理性等方式初步檢核。
AI技術的進步已經使得僅需一張人物照片和一段聲音,AI便能運算出說話時的肌肉抽動,生成極其逼真的說話影像。戴毓辰指出,「只要有利可圖的地方,就會有AI假影片」。目前常見的AI假影片情境可分為四大類。
四大類AI假影片情境
名人換臉色情片
這是最早出現的AI假影片類型之一,利用AI深度偽造技術(Deepfake),將公眾人物的臉部影像移花接木,合成至其他影片中。
偽冒名人詐騙
不法人士常冒用財經專家或權威醫師的影像,搭配精細的「對嘴」處理,假借本人名義推薦投資或販售藥品,誘使民眾加入群組或購買產品。
AI虛擬化身內容農場
例如YouTube上的「陳志明醫師」頻道,經查現實中並無此人。傳統內容農場以文章為主,現在則透過AI產出虛擬分身擔任主持人。由於僅需文案即可自動產出影片,發布頻率極高,且多涉及健康、理財等高關注議題。
搬運Sora影片
社群平台上常見內容誇張的短影音,多數搬運自AI創作程式。這類影片原帶有浮水印,但搬運者常以裁切或遮蔽方式隱藏。
民眾如何識破AI假影片?
面對越來越逼真的AI假影片,戴毓辰建議民眾以三種方式判斷。首先是留意AI生成標註,目前多個社群平台已要求創作者標記AI生成內容,如YouTube引入AI內容揭露標籤,民眾點擊影片說明「更多內容」,可看到「變造或合成的內容」、「聲音或影像經過大幅編輯或為數位生成」等提醒。
其次是「以圖搜圖」查證,將影片截圖後進行搜尋,確認影片人物是否真實存在,或核實當事人是否曾發表相同言論。例如將AI假醫師「陳志明醫師」以圖搜圖後,無法查出醫師的背景資訊,只找到多部YouTube影片,當來源都是同一個,就應該存疑。
另外,可以觀察影片中人、事、時、地、物等情境及細節是否合理。資安院研究員龎在偉表示,「AI假影片通常會有人、事、時、地、物不一致的地方」,如新聞主播播報新聞的片段被偽造為藥品宣傳,便是不合理的情境。
技術進步與防範措施
戴毓辰進一步提供可觀察的細節,從人物、環境及系統層面檢視。在人物層面,包含人物五官是否不自然、是否不自然眨眼或幾乎不眨眼、牙齒或手指是否糊在一起、輪廓是否乾淨毛邊,以及表情與語調是否匹配。
在環境及系統層面,可留意語音與字幕是否一致、光線或陰影是否合理、人物綠光反射、文字錯誤、空間構造錯誤、不合理的運鏡、低解析度壓縮痕跡、出現匪夷所思的物品、畫面是否不自然變換或延遲、快速移動的破綻、影子動態延遲等。
「雖然隨著技術進步,破綻將越來越少,但民眾若能養成『多一分懷疑、查核標註、以圖搜圖』等習慣,就能大幅降低受騙風險。」——戴毓辰
隨著AI技術的進步,識別假影片的難度也在增加,但透過不斷提高警惕和學習新技巧,民眾仍有能力保護自己免受詐騙侵害。