Google 威脅情報小組(Threat Intelligence Group)週二發布報告指出,研究人員發現了全球首宗駭客利用人工智慧(AI)開發「零日漏洞(Zero-day)」進行攻擊的案例。這標誌著網路犯罪技術的重大轉向,顯示 AI 已從單純的輔助工具,演變為能夠直接製造高端攻擊武器的威脅。
攻擊者成功繞過雙重驗證(2FA)
根據 Google 的部落格文章,這起攻擊是由數個知名網路犯罪組織合作策劃的大規模漏洞利用行動。駭客利用一個零日漏洞,成功繞過了一款「熱門開源 Web 系統管理工具」的雙重驗證(2FA)機制。
Google 指出,雖然攻擊者仍需先取得有效的用戶憑證,但該漏洞能讓他們跳過第二層身分驗證。由於 2FA 是目前保護加密貨幣帳戶及數位錢包最普及的安全手段,因此這次攻擊引起了資安界的高度關注。
遺留「幻覺」痕跡,AI 開發證據確鑿
Google 威脅情報小組表示,他們有「高度信心」認為該攻擊者使用了 AI 模型來支援漏洞的發現與武器化。證據在於攻擊腳本中出現了明顯的「幻覺(Hallucination)」錯誤,且其程式碼格式與 AI 模型訓練數據的特徵高度吻合。
報告中並未點名具體的攻擊團體,但提到中國與北韓已表現出利用 AI 發現軟體漏洞的濃厚興趣。
LLM 擅長捕捉「高級邏輯缺陷」
Google 分析,這次被利用的漏洞並非傳統的記憶體損壞等常見錯誤,而是一個「高級語意邏輯缺陷」,這源於開發人員硬編碼(hardcoded)了一個不當的信任假設。
這種漏洞的發現顯示攻擊者使用了尖端的「大型語言模型(LLM)」。Google 指出,LLM 在識別高階邏輯漏洞和硬編碼靜態異常方面表現極為出色。此外,研究發現如 PROMPTFLUX、HONESTCUE 等多個惡意軟體家族也正利用 LLM 生成干擾代碼,藉此逃避資安監控系統的偵測。
「工業化」濫用 AI 趨勢成形
報告警告,駭客對 LLM 的濫用正走向「工業化」。威脅者建立了自動化流水線,透過防偵測瀏覽器和帳戶池服務,大規模循環利用 AI 服務的免費試用帳戶或共享 API 密鑰,繞過安全護欄(guardrails),實現高容量且匿名的攻擊作業。
Google 總結指出,隨著各組織加速將 LLM 整合到生產環境中,AI 軟體生態系統已成為主要攻擊目標。儘管駭客目前尚未展現出能直接破解尖端模型核心安全邏輯的能力,但他們正頻繁攻擊 AI 系統的整合組件,例如自主技能(autonomous skills)與第三方數據連接器。
這項發現顯示,AI 在網路攻防戰中已成為雙面刃。上個月,AI 公司 Anthropic 亦聲稱其最新的 Claude Mythos 模型已在主流系統中發現了數千個漏洞,預示著未來「AI 對抗 AI」的資安戰爭將日趨白熱化。