YouTube 於 2025 年 9 月將其肖像識別技術推廣至所有合作夥伴計畫中的創作者。創作者上傳一張人臉照片,系統即可辨識未經授權使用其肖像的 AI 生成內容。這有助於在深度偽造影片發布後將其攔截。
印度議會通訊和資訊科技常設委員會建議探索對人工智慧內容創作者實行授權制度,並強制對人工智慧產生的影片和內容進行標註。這些建議旨在遏制虛假訊息,但其影響遠不止於此。
這兩種應對措施都專注於已經創建和發布的內容。這固然是一個開始,但並不理想。顯然,這是一種被動的應對方式。要真正有所作為,必須在虛假身份造成損害之前就將其識別出來,而不是事後。
你可以一眼識破拙劣的深度偽造視頻,無需任何專業訓練。例如,眼神呆滯、嘴部動作不自然、莫名其妙地多了些肢體,或是音訊比影片慢了零點幾秒。檢測工具已經能夠很好地識別這些瑕疵,而且大多數人也能做到。
機器人也類似——它們的行為方式不像人類。它們發文過於頻繁,回覆太快,使用明顯不自然的語言,或以真人不會的方式與社交網路互動。
合成身份的運作方式不同。它們由合法的數據點、真實的地址、真實的工作經驗、真實的社交關係等資訊混合搭配而成,最終建構出一個令人信服的人物形象。每個數據點都經過核實,但整體組合卻是人為捏造的。
如果這聽起來有點嚇人,那就對了。它就應該如此。
詐欺偵測系統會尋找已知的「不良」模式,例如被停用的資訊、先前被標記的憑證以及交易速度檢查。當攻擊者重複使用相同的詐騙資訊時,這種方法非常有效。然而,合成身份通常不會被重複使用。每個合成身分都是基於大量在網路上流通以及洩漏資料庫中儲存的個人資料建構而成。當你標記出一個身分時,攻擊者可能已經開始著手下一個了。
偽造身分證件?沒問題。偽造憑證?當然可以。偽造整個社群網路來偽裝身分?攻擊者經常這麼做。但要偽造長期一致的人類行為?好吧,這可就難了。
真實的人類是有規律的。例如他們的打字方式、活躍時間、訪問的系統以及訪問順序,還有遇到意外情況時的反應。人們的工作方式是有節奏的。 (你或許可以稱之為…自然法則?)
即使是製作精良的合成身份,也存在漏洞。行為舉止令人不安。訪問模式與角色不符。活動高峰出現在奇怪的時間段。當被要求進行例行驗證時,其回應感覺像是事先寫好的腳本。儘管如此,它不像拙劣的深度偽造那樣顯而易見,而且真的很容易上當受騙。
基於人類行為訓練的人工智慧模型可以發現這些漏洞。它們並非透過與已知錯誤特徵清單進行匹配,而是透過識別某些特徵明顯不像真人特徵來發現問題。
主動型安全專家在設計安全控制措施時,會從兩個角度考慮:客戶如何使用這些措施,以及惡意行為者可能如何濫用這些措施。從對手的角度審視這些措施的能力,有助於他們做出決策。
身份驗證也需要採取同樣的措施。我們應該停止詢問某個身分是否擁有有效的憑證,而應該詢問其行為是否與其所聲稱的身分相符。
我知道,這話說得有點絕對。那麼,實際情況又是怎麼樣的呢?
建立基準線。模擬合法使用者如何隨時間推移與系統交互,並按角色、功能、地理位置等進行細分。
威脅偵測應該關注異常情況,而不僅僅是已知威脅。它必須尋找不符合人類行為模式的行為,即使這些行為與已知的攻擊特徵不匹配,也應該發出警報。
考慮用戶意圖。一個正常用戶會試圖完成什麼?這種行為是否符合其意圖,還是暗示其他目的?
至關重要的是,安全團隊及其模型必須不斷學習。靜態規則會過時。隨著攻擊者策略的改變,行為模式也會隨之演變。
大多數組織仍然依賴基於憑證的身份驗證和基於規則的詐欺檢測。檢查使用者名稱和密碼。確認身分文件不在禁用名單上。就認為安全了,然後繼續下一步。
但這無法與專門設計用來透過這些檢查的合成身份相抗衡。
轉向基於行為的檢測需要投入。我們談論的是從根本上重新思考身份驗證的運作方式,並接受這樣一個事實:僅憑憑證並不能證明某人的身份。我們需要評估他們一段時間內的行為。這需要前期投入更多精力,但這種情況正是「防患於未然勝過亡羊補牢」的典型例子。
選擇那些合成身分會對你造成最大損害的系統-也就是風險最高的存取點。根據角色、功能和位置,找出這些系統上正常使用者的行為模式。然後標記出異常行為。
你能攔截所有攻擊嗎?不能。了解你攻擊目標的攻擊者會迅速調整策略。但比起單純的憑證檢查,你能攔截的攻擊數量多得多。而且,你攔截的每一個偽造身分都會增加下一個偽造身分的創造成本。威脅行為者們可就吃虧了。
我意識到這裡存在著一個悖論:創造虛假身分的人工智慧同樣可以用來辨識它們。大型語言模型非常擅長產生虛假身份,它們也擅長分析行為模式,並能識別出異常情況。
雙方都能使用這些工具。對安保人員來說,這就像是「以更明智的方式」來應對危機。計劃更周全,執行更到位。你必須搶佔先機。