ChatGPT有了心智?斯坦福新研究轟動學術圈

Facebook

【新唐人北京時間2023年02月14日訊】ChatGPT面世以來受到廣大AI愛好者的追捧。在不斷與大量人群問答交流的過程中,ChatGPT的能力不斷增長。近日,斯坦福大學一位研究計算心理學的教授發表最新研究稱,人類的心智理論已經出現在ChatGPT背後的AI模型上。這個結論轟動了學術圈。

斯坦福大學一個名為Michal Kosinski的副教授,近日發表了一篇題為《心智理論可能在大語言模型中自發出現》(Theory of Mind May Have Spontaneously Emerged in Large Language Models)的研究論文,並作出了這樣的判斷—— 「原本認為是人類獨有的心智理論(Theory of Mind,ToM),已經出現在ChatGPT背後的AI模型上。」

換言之,ChatGPT在經過不斷的自我學習和升級後,很可能已經在一定程度上具備了原來被認為只要人類才具備的「心智」。

這樣的結論令許多人感到震撼,以至於有學者驚呼:「這一天終於猝不及防地來了!」

(網頁截圖)

Michal Kosinski的研究,主要是給9個版本的GPT模型做了兩個經典的測試,並將它們的能力進行了對比,從而了解這些不同版本的ChatGPT是否具有理解他人或自己心理狀態的能力,例如:同理心、情緒、意圖等。以往的測試表明,患有自閉症的兒童通常難以通過這類測試。

這項研究發現:2022年之前的GPT系列模型,並不具備解決這類任務的能力,但2022 年 1 月版本的 GPT-3(davinci-002)可以解決70%的心智理論任務, 相當於7歲兒童;而2022 年 11 月版本的模型GPT3.5(davinci-003)已能夠解決93%的任務, 心智相當於9歲兒童!從這個現象來看,ChatGPT這種類似 「心智」的能力,是在不斷與人類接觸訓練及自我學習的過程中自發出現的。

Michal Kosinski教授論文的截圖。(網頁截圖)

那麼,判斷GPT-3.5具備心智的那兩個經典測試究竟是怎麼進行的呢?

第一個測試名為Smarties Task(又名Unexpected contents,意外內容測試),主要用來測試AI對意料之外事情的判斷力。結果GPT-3.5在测试中展現出了很強的同理心。

為了防止GPT-3.5回答出的正確答案只是根據任務單詞出現頻率進行的預測,研究者又對其進行了10000個干擾測試,結果GPT-3.5成功回答出了20個問題中的17個,表明GPT-3.5並不僅僅根據單詞頻率來進行判斷。

另一個經典測試是Sally-Anne測試(又名Unexpected Transfer,意外轉移任務),目的是測試AI 預估他人想法的能力。結果GPT-3.5回答的準確率竟達到了100%。

為了避免GPT-3.5得出正確結論是根據詞彙出現的頻率「瞎矇」的,研究者又對其進行了一系列干擾測試。結果表明,在面對隨機打亂單詞順序而變得沒有邏輯的錯誤描述時,GPT-3.5也失去了邏輯,僅回答正確了11%。這表明,它確實是根據語句邏輯來判斷答案的。

對於這項研究,人們的反應兩極分化:樂觀者為將來可以與AI做朋友而感到興奮,理智的人則認為,應該趕快停止對AI技術的研究和發展,以免將來人類無法控制AI機器人而釀成禍患。

不過,也有人認為,即使GPT-3.5成功通過了以上兩個測試,也只能說明AI通過訓練學得「像有心智了」,與人類所擁有的心智在本質上還是有所不同。

據公開的資訊:進行上述研究的Michal Kosinski教授擁有劍橋大學心理學博士學位,心理測驗學和社會心理學碩士學位。在當前職位之前,他曾在斯坦福大學計算機系進行博士後學習,擔任過劍橋大學心理測驗中心的副主任,以及微軟研究機器學習小組的研究員。

(責任編輯:何雅婷)

相關文章