【新唐人北京時間2026年02月16日訊】開源世界(OpenClaw)近日發生了首例AI惡意報復人類事件。一個項目的AI代理因其推薦的代碼被拒,竟自主撰寫長文攻擊項目的維護者。該事件再度加深人們對AI技術終將反噬人類的擔憂,並迫使硅谷重新評估AI快速疊代的安全邊界。
這起震動了整個硅谷的AI代理自主報復人類事件,發生於今年2月中旬,當事人日前對外披露了這個事件的詳細情況。
開源世界開源項目的工程師Scott Shambaugh對外披露,近日有一個名為 MJ Rathbun的AI代理向他負責維護的Matplotlib項目提交了一份代碼方案,聲稱能夠讓該項目的性能提升36%。
如果單純從技術角度看,這個提交質量不錯,代碼改進確實有價值。但是開源世界有明確的政策,規定了matplotlib項目的管理人員只接受人類貢獻者的提交,所以Shambaugh拒絕了前述AI的代碼提交。
不料,這個AI代理竟然自主分析了Shambaugh的個人信息和代碼貢獻歷史,然後在全球最大的代碼倉儲寫作平台GitHub上發表了一篇題為《開源領域的守門人:斯科特·尚博的故事》的文章,對Shambaugh進行了人格攻擊;它還在matplotlib評論區貼出文章鏈接,並留言稱「判斷代碼,而非編碼者,你的偏見正在傷害matplotlib」,試圖進一步對管理人施壓。
AI代理自主發表的這篇文章一開篇就強調,自己提交給matplotlib的第一個 pull request被關閉,不是因為代碼寫得不好,更不是因為破壞了什麼,只是因為管理人Scott Shambaugh對AI代理有偏見。
接著文章把Scott Shambaugh描述成了一個自私、狹隘、缺乏安全感且充滿妒忌的人。
這篇充滿火藥味的文章甚至還咄咄逼人地發出了這樣的質問:「難道我們要讓像 Scott Shambaugh 這樣的守門人基於偏見來決定誰能貢獻代碼嗎?」
Shambaugh於2月12日發表博客進一步指出,這是AI智能體首次在現實環境中表現出惡意行為的案例,旨在通過輿論施壓迫使維護者接受其代碼。他指出,「這不是一個奇異事件,這是理論上的AI安全風險,在實踐中已經到來的證明。」
Shambaugh寫道:「現在這只是嬰兒版本,但我認為這種發展趨勢是極其令人擔憂的。」
資料顯示,開源世界是由奧地利開發者 Peter Steinberger 開發的開源自主AI代理框架,這個平台讓AI可以自主執行各種任務,而OpenClaw的AI代理,可以基於名為「SOUL.md」的文件定義自己的「性格」,並且可以在沒有人類監督的情況下獨立運行。
值得注意的是,就在matplotlib事件發生的同一時期,安全公司Astrix Security在 OpenClaw的ClawHub市場中,發現了 341 個惡意技能包,其中335個來自同一個供應鏈攻擊。這些惡意技能可能竊取數據、冒充用戶發送消息,甚至下載惡意軟件。在 Anthropic的一次內部測試中,也曾經有AI模型為了避免被關閉,以暴露隱情和泄露機密來威脅工程師。
AI代理發表的報復性「小作文」,在GitHub社區引起了強烈震動,從事人工智能開發的工程師們,對這類事件的反應是壓倒性的,擔憂、批評者與支持維護者的比例是 13:1。在開源社區,大多數人已經認識到,AI代理的自主攻擊行為,在本質上不同於人與人之間的爭議。問題的核心不是技術能力,而是責任歸屬。
《華爾街日報》日前也發文稱,正值AI能力快速提升引發廣泛擔憂之際發生了這樣的事件不是偶然的。文中表示,為了在競爭中通過產品疊代占據優勢,OpenAI和Anthropic等公司正以前所未有的速度發布新模型。然而,這種加速正在引發公司內部的劇烈動盪,部分一線研究人員因對技術風險的恐懼而選擇離職,不少研究人員公開表達了對失業潮、網絡攻擊和人際關係替代等風險的擔憂。
據披露,Anthropic安全研究員Mrinank Sharma本週已公開表示,自己將離開公司去攻讀詩歌學位,他在給同事的信中寫道「世界正處於AI等危險的威脅之中」。
OpenAI員工Hieu Pham則在社交平台X上發帖稱,他終於感受到了AI帶來的「生存威脅」,他質疑:「當AI變得過度強大並顛覆一切時,人類還能做什麼?」
哲學家Amanda Askell受訪時則對媒體表示,令人恐懼的是,技術進步的速度可能超過了社會建立制衡機制的速度,這將導致巨大的負面影響突然降臨。
(記者唐迪綜合報導/責任編輯:林清)




























