澳智庫報告:如何降低中國大陸AI帶來的風險

【新唐人北京時間2023年08月01日訊】由於中共嚴格管控,中國大陸的人工智能(AI)對「敏感詞」嚴厲審核,以迴避讓中共敏感的話題,備受外界詬病。澳洲智庫近日發布新的報告警告,中國大陸AI對西方的風險比5G技術更甚,因此需要加強對中國大陸的AI監管。

7月27日,知名智庫澳洲戰略政策研究所 (Australian Strategic Policy Institute, ASPI) 發布一份報告,呼籲對中國大陸的AI(人工智能)產品進行監管。

報告說,與5G比較,人工智能 (AI)系統的影響要大得多,其風險也更大。因為AI不僅塑造我們的所見、所想、所感和所選擇,它們還能計算我們獲得經濟利益的機會以及我們的違法行為,現在,它們還能像人類一樣生成複雜的文本、圖像和代碼。

因此,AI會做出許多影響我們的健康、安全和財富的無形決策。

報告指出,我們應對人工智能保持警惕,特別是應更加謹慎地對待來自那些既不認同我們的價值觀也不分享我們利益的獨裁國家的人工智能產品和服務。

報告說,中華人民共和國(PRC)是一個明顯敵視民主和基於規則的國際秩序的修正主義威權國家,它經常使用人工智能來加強自身的政治和社會穩定,為此而犧牲個人人權。並且,在世界上,與俄羅斯、伊朗和朝鮮等其它威權國家相比,中共當局擁有更強的技術,也向民主國家輸出具有成本競爭力的人工智能技術。

報告建議,應注意三種有可能帶來威脅的中國大陸人工智能技術:第一,產品和服務(通常是有形基礎設施),這些產品和服務往往被中共用來對民主國家進行間諜活動(如監視、數據盜竊)和破壞。

第二,有利於外國干涉的人工智能技術(代表外國勢力進行惡意的祕密影響),比如TikTok;

第三,「大型語言模型人工智能」和其它新興的生成人工智能系統。

報告進一步提出,由於全面禁止中國大陸的AI不現實,所以需要一個新的三步框架來識別、分類和管理風險最高的產品和服務。這有點像最近推出的美國限制法案草案中提出的內容,即識別和減輕外國對信息和通信技術(ICT)產品和服務的威脅。

第1步:審核:確定一種人工智能系統對於基本服務、公共衛生和安全、民主進程、開放市場、言論自由和法治有多大影響。它還將考慮是否涉及到暴露用戶隱私。

第2步:紅隊(Red team,意為假想敵 ):任務是測試產品的漏洞,一旦發現產品風險,可以考慮全面禁止產品。

報告舉例說,例如,我們知道中共機構可以訪問TikTok數據,據報還可以泄露用戶的位置,因此軍事和政府官員顯然不應該使用該應用程序。記者們也應該仔細思考這一點。

第3步:制定監管措施。措施包括禁止中國大陸人工智能技術在網絡使用、禁止政府採購或使用,或者全面禁止。

(責任編輯:李郦)

相關文章
評論