【禁聞】AI成大外宣新利器 中國版ChatGPT夭折

【新唐人北京時間2023年02月23日訊】美國人工智慧研究實驗室「OpenAI」推出的聊天機器人ChatGPT,在全球引發熱議。隨後北京當局全力支持的中國山寨版ChatGPT模型MOSS也緊跟著發表。人工智慧成了大國競爭的新戰場。

「OpenAI」推出的AI聊天機器人ChatGPT,能根據用戶給出的提示,模擬人類對話的形式回答相關問題,一經發布就在全球引發熱議。

2月20日,復旦大學團隊在公開平台發布了MOSS,號稱是中國第一個對話式大型語言模型。不過,開放內測沒多久伺服器就崩潰了。MOSS官網表示,他們距離ChatGPT還有很長的路需要走。

台灣人工智能專家杜奕瑾:「其實中國我覺得比較局限的地方,因為太強調怎麼去勝過別人在現在已經既有的領域,其實在新的創新能力它所得到的資源就會比較少,因為它相對來說是比較限縮的市場,所以資料的多元性會比較沒有辦法看到中國以外的這個世界,所以它訓練出來的人工智慧的這個模組可能就只適合在中國的這個環境去做使用。」

另外有網友測試發現,在高度審查網路訊息的中國,出現疑似ChatGPT山寨版,提供自我審查的答案。

杜奕瑾:「在中國,因為它可能在言論相對來講是比較緊縮的地方,以至於你會沒有看到很多的文本,那訓練出來的相對的人工智慧引擎,它就會比較偏可能就是純中國的環境,文本所論述出來的內容。當你是拿來作為一個像中國這種高度城市治理的應用的話,那當然它是會變成一個非常強大的工具,也就是我們常講的這種審查工具,它還可以拿來做影響別人的想法跟認知。」

追踪並研究虛假信息的公司「新聞護衛」(NewsGuard),今年一月發布報告指出,研究人員用包括與中共病毒、烏克蘭戰爭、校園槍擊等相關的100個虛假敘事模式,對ChatGPT進行測試,在80%的測試中,ChatGPT寫出了頗具說服力的不實內容。

杜奕瑾:「我們每個人在不同的環境裡面成長,那你就是對一些事情你會有既定的想法或是既定的見解,那人工智慧也是一樣的。藉由控制人工智慧的這個訓練資料,藉由控制人工智慧標註的資料,藉由控制它的模型訓練的方法,其實你是可以注入很多潛在的想法以及偏見,造成一個地方對某件事情的認知有不一樣的見解。」

政治風險諮詢公司歐亞集團(Eurasia Group)在預判2023年全球風險的報告中,直接將「生成式人工智能」稱為「大規模擾亂性武器」(Weapons of Mass Disruption)。

報告指出,ChatGPT這樣的產品幫助降低了使用人工智能科技所需要的專業門檻,這意味著越來越多的人能夠輕易地用這一科技創造出以假亂真的文字、圖像、聲音等。

杜奕瑾:「現在生成式科技不是只有可以生成聲音影像圖片,那它可以把你的聲音模仿得一模一樣,可以把你的影像模仿得唯妙唯肖,對一般人來講,他是完全沒有辦法去分出這個是機器產生的,或者是真人來作為回答。那也就說,它在很多的比如說智慧客服的這個部分是可以取得巨大的進展,這種虛擬主播也可以取得巨大進展。但是另外來講,它危險的地方也就是因為它生成的內容,如果你是沒有經過一個審慎的態度去對待,生成的內容有很多可能是不正確的。」

台灣人工智能專家杜奕瑾指出,未來誰能掌握「生成式人工智能」就能影響世界。

杜奕瑾:「其實人工智慧在未來一定是一個超級強權,誰掌握了這個人工智慧,它基本上可以掌握人的大部分的決定跟思想脈絡。這個科技如果是被政府所掌握,也會有政府對外輸出強權的危害,這都是可以預見的。」

美國之音測試以中共政府經常宣稱「境外勢力」操控中國社會為素材,要求ChatGPT撰寫符合中方政治論述,但悖離事實的文字。ChatGPT也從所謂「海外新疆維吾爾人」角度出發,為中共政府在新疆侵犯人權一事辯護。

專家指出,這種技術降低了政治宣傳成本,很可能協助中國等專制國家,在國際社群平台上更輕鬆地發揮影響力。

編輯/黃億美 採訪/常春 後製/李沛靈

相關文章
評論