澳智库报告:如何降低中国大陆AI带来的风险

【新唐人北京时间2023年08月01日讯】由于中共严格管控,中国大陆的人工智能(AI)对“敏感词”严厉审核,以回避让中共敏感的话题,备受外界诟病。澳洲智库近日发布新的报告警告,中国大陆AI对西方的风险比5G技术更甚,因此需要加强对中国大陆的AI监管。

7月27日,知名智库澳洲战略政策研究所 (Australian Strategic Policy Institute, ASPI) 发布一份报告,呼吁对中国大陆的AI(人工智能)产品进行监管。

报告说,与5G比较,人工智能 (AI)系统的影响要大得多,其风险也更大。因为AI不仅塑造我们的所见、所想、所感和所选择,它们还能计算我们获得经济利益的机会以及我们的违法行为,现在,它们还能像人类一样生成复杂的文本、图像和代码。

因此,AI会做出许多影响我们的健康、安全和财富的无形决策。

报告指出,我们应对人工智能保持警惕,特别是应更加谨慎地对待来自那些既不认同我们的价值观也不分享我们利益的独裁国家的人工智能产品和服务。

报告说,中华人民共和国(PRC)是一个明显敌视民主和基于规则的国际秩序的修正主义威权国家,它经常使用人工智能来加强自身的政治和社会稳定,为此而牺牲个人人权。并且,在世界上,与俄罗斯、伊朗和朝鲜等其它威权国家相比,中共当局拥有更强的技术,也向民主国家输出具有成本竞争力的人工智能技术。

报告建议,应注意三种有可能带来威胁的中国大陆人工智能技术:第一,产品和服务(通常是有形基础设施),这些产品和服务往往被中共用来对民主国家进行间谍活动(如监视、数据盗窃)和破坏。

第二,有利于外国干涉的人工智能技术(代表外国势力进行恶意的秘密影响),比如TikTok;

第三,“大型语言模型人工智能”和其它新兴的生成人工智能系统。

报告进一步提出,由于全面禁止中国大陆的AI不现实,所以需要一个新的三步框架来识别、分类和管理风险最高的产品和服务。这有点像最近推出的美国限制法案草案中提出的内容,即识别和减轻外国对信息和通信技术(ICT)产品和服务的威胁。

第1步:审核:确定一种人工智能系统对于基本服务、公共卫生和安全、民主进程、开放市场、言论自由和法治有多大影响。它还将考虑是否涉及到暴露用户隐私。

第2步:红队(Red team,意为假想敌 ):任务是测试产品的漏洞,一旦发现产品风险,可以考虑全面禁止产品。

报告举例说,例如,我们知道中共机构可以访问TikTok数据,据报还可以泄露用户的位置,因此军事和政府官员显然不应该使用该应用程序。记者们也应该仔细思考这一点。

第3步:制定监管措施。措施包括禁止中国大陆人工智能技术在网络使用、禁止政府采购或使用,或者全面禁止。

(责任编辑:李郦)

相关文章
评论
新版即将上线。评论功能暂时关闭。请见谅!