資訊安全貼士 (2025年5月號) – 如何防範 AI Deepfake 詐騙?
所謂 Deepfake(深度偽造),是指騙徒透過人工智能(AI)中的深度學習技術,模仿他人的面部表情、聲音特徵等,製作出以假亂真的影片或音訊。雖然這項技術有合法的應用,但它越來越多地被詐騙者利用來偽裝成他人進行詐騙,例如冒充公司高層在視像會議中要求員工匯款,又或者製作虛假新聞影像,誤導大眾。隨著 Deepfake 技術日益成熟,相關詐騙手法在本澳亦已出現,值得大家提高警覺。
防範 Deepfake 詐騙的五個方法:
-
保持警惕:
- 對任何來自網絡的影片或錄音資料要有懷疑精神,眼見不一定為實。尤其是當中牽涉到金錢或敏感資訊時,更應小心。
- 查證多個資訊來源:
- 收到資訊後,可於網上搜尋是否有其他可靠媒體或官方消息來源作佐證。若只有單一來源,可信度存疑。
- 留意異常細節:
- 雖然 Deepfake 效果愈來愈逼真,但仍可能出現瑕疵,例如:
- 面部表情或嘴形與語音不同步
- 動作不自然
- 聲音音調怪異或忽高忽低
- 膚色與光線不一致
這些都是判斷影片是否被偽造的線索。
- 雖然 Deepfake 效果愈來愈逼真,但仍可能出現瑕疵,例如:
- 涉及金錢時要格外謹慎:
- 如收到來歷不明、聲稱來自上司或親友的緊急匯款請求,應多方查證,包括直接聯絡當事人,切勿草率轉帳。
- 掛斷來歷不明的視像或語音邀請:
- 若接到陌生來電或視像會議邀請,尤其對方聲稱身份但無法即時驗證,應立即掛斷,避免落入 Deepfake 詐騙陷阱。如果對方持續騷擾或令你感到冒犯,建議直接封鎖該號碼/帳號以保護自身安全。
Deepfake 技術雖強,但只要提高警覺、善用常識和多方查證,仍然可以有效防止受騙。如懷疑遇上詐騙,應即時向警方報案或尋求協助。



