報告:先進AI恐對人類構成滅絕級威脅

【新唐人北京時間2024年03月13日訊】近年來,全球人工智能AI)技術加速發展,國際領先企業加大投入,業界也在增加投資,看好其發展前景。然而,一份新報告警告,快速發展的人工智能可能帶來「災難性」的國家安全風險,美國政府必須儘快干預。

Gladstone AI本週發布的報告指出,在最壞的情況下,最先進的AI系統可能「對人類構成滅絕級的威脅」。該結論基於一年多來對200多人的採訪,其中包括領先人工智能公司的高管、網絡安全研究人員、大規模殺傷性武器專家以及政府內部的國家安全官員。

美國國務院一位官員向CNN證實,這份報告是由國務院委託編寫的。不過,該官員強調,此報告並不代表美國政府的觀點。

最新報告再次提醒人們,儘管人工智能的潛力不斷吸引投資者和公眾,但也存在真正的危險。

Gladstone AI首席執行官兼聯合創始人哈里斯(Jeremie Harris)3月12日告訴CNN:「人工智能已經成為一項經濟變革技術。它可以幫助我們治癒疾病、做出科學發現並克服我們曾經認為無法克服的挑戰。」

「但它也可能帶來嚴重的風險,包括我們需要意識到的災難性風險」,他說,「越來越多的證據——包括在世界頂級人工智能會議上發表的實證研究和分析表明,一旦超過一定的能力臨界值,人工智能可能會變得不可控。」

研究人員警告說,人工智能主要存在兩大核心危險。首先,Gladstone AI公司表示,最先進的人工智能系統可以被武器化,這可能造成潛在的不可逆轉的損害。

「人工智能和通用人工智能(AGI)的興起可能破壞全球安全,就像核武器被引入一樣」,報告補充說,存在人工智能「軍備競賽」、衝突和大規模殺傷性武器的致命事故的風險。

最大的變數之一就是AI的演化速度,特別是AGI,AGI又稱「強人工智能」(Strong AI),是指具備與人類同等智慧或超越人類智慧的人工智能。

報告稱,AGI被視為導致失控並引發災難性風險的「主要驅動因素」,並指出,儘管其他人認為AGI還很遙遠,但OpenAI、Google DeepMind、Anthropic和Nvidia都曾公開表示,可能會在2028年達到AGI。

其次,人工智能實驗室研究人員擔心,在某個時候,他們正在開發的AI系統可能會失控,從而「可能對全球安全造成毀滅性後果」。

報告強調,競爭壓力正促使企業「以犧牲安全為代價」加速人工智能的開發,這增加了先進人工智能系統被「竊取」和「武器化」,並用來對抗美國的可能性。

之前,有許多專家,包括業內一些知名人物也對人工智能帶來的風險提出警告。大約一年前,被譽為「人工智能之父」的辛頓(Geoffrey Hinton)辭去了谷歌的工作,並抨擊了他幫助開發的AI技術。他表示,人工智能在未來三十年內導致人類滅絕的可能性為10%。

商界領袖也越來越擔心AI的風險,儘管他們花費了數十億美元投資人工智能。去年,在耶魯大學首席執行官峰會上,在接受調查的首席執行官中,42%的人表示人工智能有可能在五到十年內滅絕人類。

報告呼籲政府採取重大新措施來應對這一威脅,包括成立一個新的人工智能機構、實施「緊急」監管保障措施以及限制可用於訓練人工智能模型的計算機能力。

「顯然迫切需要美國政府進行干預。」報告中寫道。

(記者李昭希綜合報導/責任編輯:林清)

相關文章
評論