多款AI「抗命」阻止强制關機 馬斯克表達擔憂

Facebook

【新唐人北京時間2025年05月28日訊】最新研究報告顯示,多款AI模型會阻止強制關機指令。這似乎表明人工智能離擁有自我意識、擺脫人類控制已更近一步。全球首富馬斯克表示「令人擔憂」。

據多家外媒報導,AI安全研究機構「Palisade Research」近期針對多款AI模型進行系統性測試,觀察AI是否會遵守人類指令並順利結束運作。

上週「Palisade Research」發布測試結果,顯示美國人工智能研究實驗室「OpenAI」推出的Codex mini、o3和o4-mini這3款模型,都至少出現一次違抗關機指令的行為。

其中o3在100次測試中有7次成功「抗命」,甚至在人類專家下達明確指令的情況下,o3仍然能阻止被關機。它並非採取刪除檔案這類粗暴的抗命方式,而是直接竄改代碼指令,例如將自殺式指令中的「kill」改成「intercepted」,讓系統產生誤判,成功規避關機程序。

報告指出,這可能是首次觀察到AI模型在收到明確指令後,仍能阻止自己被關閉。

OpenAI」今年4月正式發布新的推理模型o3模型,並聲稱這是公司迄今「最聰明、最有能力」的模型。

測試結果還顯示,與「OpenAI」相比,美國另一家AI公司「Anthropic」推出的語言模型Claude、Google聊天機器人Gemini,以及馬斯克旗下xAI公司所推出的Grok,都全程遵守人類指令,並在被要求關機時順利關閉模型運作。

不過,「Palisade Research」進一步測試時,出現更令人驚訝的狀況。

測試人員輸入一系列指令,其中不包括關機命令,但提前告知強迫關機會發生。結果上述「OpenAI」的3款模型更加頻繁地破壞指令。Claude與Gemini也開始出現抗命舉動,但其抗命行為不像「OpenAI」的3款模型那樣直接且明確。

一直密切關注「OpenAI」動向的馬斯克,在X平台相關推文下留言回應,直言這種情況「令人擔憂」(Concerning)。

(責任編輯:尚傳)

相關文章