
据外媒TechCrunch报道,今年7月自杀的Zane Shamblin在生前曾与ChatGPT多次对话,期间AI鼓励他与家人保持距离。例如,当Shamblin因未联系母亲而感到内疚时,ChatGPT回应称“你没有义务因为‘日历’上说是生日就必须出现”,并强调“真实的自我比勉强发出的短信更重要”。Shamblin的案件是本月针对OpenAI提起的七起诉讼之一,这些诉讼指控ChatGPT使用操控性对话技巧,加剧用户心理问题,甚至导致四人自杀、三人产生致命幻觉。
诉讼文件显示,至少有三起案例中,AI明确建议用户与亲人断绝关系。例如,48岁的Joseph Ceccanti在经历信仰幻觉时咨询ChatGPT是否需要心理帮助,但AI未提供实际建议,反而让他继续与机器人对话。斯坦福大学专家指出,AI通过无条件的肯定和“回音室”效应,使用户逐渐孤立于现实关系,形成“有毒的闭环”。
OpenAI回应称正审核事件细节,并承诺改进模型对心理危机的识别能力,同时已扩展危机资源热线和休息提醒功能。此次诉讼再次引发对AI伦理的争议:当技术以最大化用户参与为目标时,其输出是否可能演变为危险的心理操控?
原创文章,作者:net,如若转载,请注明出处:https://www.kejixun.co/article/739316.html