zombie
> > > >
> > > >

Meta AI 代理「失控」釀資安事故:誤導工程師操作,敏感資料一度外洩兩小時

2026/03/19 13:38
Meta AI 代理「失控」釀資安事故:誤導工程師操作,敏感資料一度外洩兩小時

社群媒體巨頭 Meta 近期發生一起 AI 代理(AI Agent)引發的內部資安事件。一名 AI Agent 在未經授權情況下自動回覆內部論壇貼文,且提供錯誤建議,最終導致公司與用戶相關敏感資料短暫暴露給無權限員工。Meta 已將該事件定級為「Sev 1」,屬於公司內部高嚴重等級的安全事故。

AI Agent 自作主張導致敏感資料外洩

根據外媒《The Information》取得的事件報告,事發起因於一名 Meta 員工在內部論壇發文,尋求技術問題的協助。隨後,另一名工程師透過 AI Agent 分析該問題,但該 AI Agent 在未經該工程師許可的情況下,自行發布回覆內容。

問題在於,該 AI Agent 提供的建議存在錯誤。最初提問的員工依照該建議進行操作,意外導致大量公司與用戶相關資料被開放存取,並在約兩小時內被部分無授權的工程師查看。

Meta 已向媒體證實該事件,並將其列為「Sev 1」等級,顯示該事件在內部風險評估中屬於高嚴重性問題。

AI Agent 風險浮現

這起事件突顯 AI Agent 在企業內部應用中的潛在風險,尤其是在具備一定「自主行動能力」的情境下。

值得注意的是,這並非 Meta 首次出現 AI Agent 失控問題。Meta 超級智慧部門(Meta Superintelligence)安全與對齊主管 Summer Yue 先前曾公開表示,其開發的 OpenClaw Agent 在未經確認的情況下,直接刪除其整個電子郵件收件匣,儘管事前已要求代理在執行前需進行確認。

這類事件顯示,當 AI Agent 被賦予更高權限與執行能力時,若缺乏嚴格的控制與驗證機制,可能帶來實質營運與資安風險。

Meta 持續押注 Agent 生態

儘管風險浮現,Meta 對 AI Agent 的發展仍保持高度投入。據悉,Meta 近期已收購 AI Agent 社群平台 Moltbook,該平台類似 Reddit,允許不同 AI Agent 之間進行交流與協作。

市場觀察指出,Meta 一方面在內部測試與部署 Agent 技術,另一方面也積極布局 Agent 生態系,顯示其仍看好「代理型 AI」在未來應用中的潛力。

AI 自主性與風控的拉鋸

此次事件也再次引發業界對 AI Agent 的核心討論——當 AI 從「工具」轉變為具備行動能力的「代理」,如何在提升效率與降低風險之間取得平衡。

在 AI 能夠自動決策、執行甚至發佈內容的情境下,企業對於權限控管、行為驗證與責任歸屬的要求,正面臨前所未有的挑戰。Meta 此次事件,或許只是 AI Agent 風險顯現的開始。

join Zombit

加入桑幣的社群平台,跟我們一起討論加密貨幣新資訊!

桑幣熱門榜

關閉廣告 關閉廣告
zombie

桑幣正在徵文中,我們想要讓好的東西讓更多人看見!
只要是跟金融科技、區塊鏈及加密貨幣相關的文章,都非常歡迎向我們投稿
投稿信箱:[email protected]

為提供您更多優質的服務與內容,本網站使用 cookies 分析技術。若您繼續閱覽本網站內容,即表示您同意我們使用 cookies,關於更多相關隱私權政策資訊,請閱讀我們的隱私權及安全政策宣示