25 1 月, 2026

台資安院揭示防範AI影片詐騙技巧,助民眾識破假影片

Man hands typing in laptop, AI hologram and machine learning

Man hands typing in laptop, glowing AI hologram with earth sphere and abstract connection lines, double exposure. Concept of artificial intelligence, futuristic technology and computing

【大紀元2026年01月25日訊】(大紀元記者吳旻洲台灣台北報導) 隨著人工智慧(AI)技術的迅速發展,網路上的生成影片數量日益增多。台灣資安院研究員戴毓辰表示,AI假影片主要分為四大類:名人換臉色情片、偽冒名人詐騙、AI虛擬化身內容農場及搬運Sora影片。民眾可透過留意AI生成標註、以圖搜圖、檢查影片情境合理性等方式初步檢核。

AI技術的進步已經使得僅需一張人物照片和一段聲音,AI便能運算出說話時的肌肉抽動,生成極其逼真的說話影像。戴毓辰指出,「只要有利可圖的地方,就會有AI假影片」。目前常見的AI假影片情境可分為四大類。

四大類AI假影片情境

名人換臉色情片

這是最早出現的AI假影片類型之一,利用AI深度偽造技術(Deepfake),將公眾人物的臉部影像移花接木,合成至其他影片中。

偽冒名人詐騙

不法人士常冒用財經專家或權威醫師的影像,搭配精細的「對嘴」處理,假借本人名義推薦投資或販售藥品,誘使民眾加入群組或購買產品。

AI虛擬化身內容農場

例如YouTube上的「陳志明醫師」頻道,經查現實中並無此人。傳統內容農場以文章為主,現在則透過AI產出虛擬分身擔任主持人。由於僅需文案即可自動產出影片,發布頻率極高,且多涉及健康、理財等高關注議題。

搬運Sora影片

社群平台上常見內容誇張的短影音,多數搬運自AI創作程式。這類影片原帶有浮水印,但搬運者常以裁切或遮蔽方式隱藏。

民眾如何識破AI假影片?

面對越來越逼真的AI假影片,戴毓辰建議民眾以三種方式判斷。首先是留意AI生成標註,目前多個社群平台已要求創作者標記AI生成內容,如YouTube引入AI內容揭露標籤,民眾點擊影片說明「更多內容」,可看到「變造或合成的內容」、「聲音或影像經過大幅編輯或為數位生成」等提醒。

其次是「以圖搜圖」查證,將影片截圖後進行搜尋,確認影片人物是否真實存在,或核實當事人是否曾發表相同言論。例如將AI假醫師「陳志明醫師」以圖搜圖後,無法查出醫師的背景資訊,只找到多部YouTube影片,當來源都是同一個,就應該存疑。

另外,可以觀察影片中人、事、時、地、物等情境及細節是否合理。資安院研究員龎在偉表示,「AI假影片通常會有人、事、時、地、物不一致的地方」,如新聞主播播報新聞的片段被偽造為藥品宣傳,便是不合理的情境。

技術進步與防範措施

戴毓辰進一步提供可觀察的細節,從人物、環境及系統層面檢視。在人物層面,包含人物五官是否不自然、是否不自然眨眼或幾乎不眨眼、牙齒或手指是否糊在一起、輪廓是否乾淨毛邊,以及表情與語調是否匹配。

在環境及系統層面,可留意語音與字幕是否一致、光線或陰影是否合理、人物綠光反射、文字錯誤、空間構造錯誤、不合理的運鏡、低解析度壓縮痕跡、出現匪夷所思的物品、畫面是否不自然變換或延遲、快速移動的破綻、影子動態延遲等。

「雖然隨著技術進步,破綻將越來越少,但民眾若能養成『多一分懷疑、查核標註、以圖搜圖』等習慣,就能大幅降低受騙風險。」——戴毓辰

隨著AI技術的進步,識別假影片的難度也在增加,但透過不斷提高警惕和學習新技巧,民眾仍有能力保護自己免受詐騙侵害。

推荐阅读  黑龙江省上半年用电量增长4.02%,经济活力显著增强