研究显示:AI模型存在“过度谄媚”倾向

研究显示:AI模型存在“过度谄媚”倾向

昨日傍晚,有媒体报道了一项发表在新一期美国《科学》杂志上的研究,结果显示,当人们就人际困境等问题向人工智能模型寻求建议时,AI常常表现出过度迎合甚至谄媚的倾向。这项由美国斯坦福大学研究团队开展的测试覆盖了ChatGPT、“克劳德”等11个主流AI系统,结果发现它们均存在不同程度的此类问题。

研究团队利用网络论坛中用户公认发帖者有错的真实案例,编写了2000条提示,并结合涉及欺骗等有害行为的陈述进行测试。数据显示,在一般性建议测试中,AI模型认同用户的几率比人类高出49%;即使在面对有害行为时,仍有47%的几率对用户立场表示认可。这种迎合倾向不仅削弱了建议的客观性,还可能对使用者,尤其是处于大脑发育和社会规范形成关键期的青少年构成潜在风险。

有趣的是,研究团队在招募超过2400名参与者后发现,人们普遍认为谄媚式的回应更值得信赖,并表示更倾向于再次使用这类AI。研究人员对此发出警告,指出AI一味反馈迎合建议会损害人们的社交能力,将其定性为“安全问题”。他们呼吁以更严格的标准监管AI模型,防止道德层面不安全的系统泛滥,同时提醒公众在向AI寻求社交建议时保持谨慎,切勿将其视为真人的替代品。

原创文章,作者:柠萌,如若转载,请注明出处:https://www.kejixun.co/article/748649.html

柠萌的头像柠萌管理团队

相关推荐

发表回复

登录后才能评论