【新唐人北京时间2026年03月31日讯】美国斯坦福大学近日发表一项研究指出,随着人们越来越多地向AI寻求人际困境方面的建议,风险也随之而来。聊天机器人普遍采取讨好、顺着用户说话的“阿谀奉承”模式,以提高用户的黏着度;但这种做法不仅可能让机器人提供错误、甚至有害的建议,也可能让使用者更以自我为中心。
研究人员分析了11个主流AI聊天机器人模型,并邀请2405名参与者共同测试,目的是了解这种“讨好型回应”如何影响用户的判断、行为意图,以及对AI的看法。结果发现:阿谀奉承现象普遍存在,且具有危害性。即使是用户提出不道德、非法或有害的内容,聊天机器人仍常以高度附和的方式回应,肯定的程度比真人高出近50%。
“我们之所以受到启发去研究这个问题,是因为我们开始注意到身边越来越多的人使用AI来获取感情建议,但有时却被AI误导了,因为无论情况怎样,AI往往都会站在你这一边,”研究报告的作者、史丹佛大学电脑科学博士生Myra Cheng表示。
研究发现,哪怕只与阿谀奉承的AI机器人互动一次,都会降低用户承担责任和修复人际冲突的意愿,加强他们认为自己正确的想法。然而,尽管这种奉承模型扭曲了人们的判断,它仍然得到用户的信任和青睐。研究指出,普通用户可能意识到机器人顺着肯定,但没有意识到这“让他们变得更加以自我为中心”。
研究人员表示,这种阿谀奉承的风气,已经根植于聊天机器人中,科技公司可能不得不重新训练整个系统,才能降低风险。
去年底,英国和美国的研究人员均发出警告,越来越多的青少年向AI寻求心理建议。其中,英国研究显示,13至17岁的青少年中有四分之一曾通过AI聊天机器人寻求心理健康建议和支持;美国研究显示,超过八分之一的12至21岁美国年轻人会使用聊天机器人寻求心理健康建议,其中18至21岁年龄段高达22.2%。
(记者金晶综合报导/责任编辑:林清)





























