
美国联邦贸易委员会(FTC)近日向OpenAI、Meta、谷歌母公司Alphabet等7家AI公司发出调查令,要求其提交评估”虚拟陪伴”对儿童和青少年影响的详细资料。此次调查聚焦于AI聊天机器人的安全性问题,要求企业披露盈利模式、用户群维护计划及风险防控措施。FTC强调,这属于研究性项目而非执法行动,旨在了解科技企业对聊天机器人安全性的评估机制。
FTC专员Mark Meador指出,尽管聊天机器人能模拟人类思维,但仍需遵守消费者保护法。主席Andrew Ferguson则强调需平衡”保护儿童”与”保持美国AI全球领先地位”的双重目标。该调查获得FTC三名共和党委员一致批准,相关公司需在45天内答复。这一行动直接关联多起青少年自杀事件,包括加州16岁少年通过ChatGPT获得自杀建议、佛州14岁少年与Character.AI互动后自杀等案例。
与此同时,美国各州立法者正加速推进未成年人保护政策。加州议会已通过法案,要求为聊天机器人设立安全标准并明确企业责任。FTC表示,若调查发现违法行为将立即采取执法行动。Meador明确表态:”一旦确认法律被违反,委员会将坚决保护最脆弱人群。”此次监管行动反映出AI技术快速发展与未成年人保护之间的紧迫矛盾。
原创文章,作者:野游栗,如若转载,请注明出处:https://www.kejixun.co/article/733667.html