
多家英国互联网安全组织近日向通信监管机构Ofcom提交联名信,要求限制Meta公司使用人工智能进行平台风险评估。这一行动源于上月曝光的Meta内部计划——该集团拟将Facebook、Instagram及WhatsApp平台高达90%的风险评估工作转由AI自动化完成。
值得注意的是,此举直接冲击英国《在线安全法案》核心要求。该法案强制社交平台评估伤害风险并制定防护措施,尤其强调保护未成年用户、清除非法内容的法律责任。抗议机构包括莫莉·罗斯基金会、防止虐待儿童协会等组织,在致Ofcom首席执行官梅兰妮·道斯的信中严正指出,依赖AI主导风险评估属于”危险的技术倒退”,可能导致关键安全隐患被系统忽略。他们要求监管机构明确表态:自动化生成的风险报告不应被视为”合适且充分”的合规方案。
面对质疑,Meta发言人迅速回应称指控存在曲解,强调其AI工具”仅在人类监督下辅助识别法律合规需求”,并称技术升级已显著提升安全防护成效。但美国国家公共广播电台(NPR)此前披露,Meta正推进算法更新与安全功能审批流程的全面AI化,甚至考虑将青少年风险监测等敏感领域交由自动化系统处理。匿名前高管警告,此举虽加速功能上线,却可能因缺乏人工预审而放大潜在风险。
当前Ofcom已启动调查程序,要求Meta说明风险评估的”执行者、审核者及批准者身份”。随着《在线安全法案》处罚条款生效(最高可处全球年收入10%或1800万英镑罚款),这场围绕AI伦理的博弈将深刻影响科技巨头的合规路径。
原创文章,作者:net,如若转载,请注明出处:https://www.kejixun.co/article/722901.html