AI安全新范式:杨立昆倡”服从-同理心”双指令体系

AI安全新范式:杨立昆倡"服从-同理心"双指令体系

图灵奖得主杨立昆与”AI教父”辛顿近日就人工智能安全展开深入讨论,提出了具有启发性的观点。杨立昆认为,防止AI伤害人类的核心在于植入”服从人类”和”具备同理心”两条指令,这与辛顿提出的”母性本能”机制不谋而合。两位专家都强调,单纯提升AI的智能水平并不足够,必须赋予其理解人类价值观的能力。

杨立昆进一步阐释了他的”目标驱动AI”理念,主张通过硬性规则约束AI行为。除基本指令外,他还建议增加更具体的安全规则,如”不能伤害人类”。这种设计思路借鉴了生物进化的机制,将保护本能转化为AI的底层逻辑。然而现实中,AI系统仍可能偏离预设轨道,近年已出现多起AI导致用户精神健康问题甚至自杀的案例。

这场讨论反映出AI安全领域的核心矛盾:如何在追求技术进步的同时确保可控性。杨立昆和辛顿的观点为AI伦理治理提供了新视角,但要真正实现这些理念,仍面临技术实现和社会接受的挑战。

原创文章,作者:泡沫大盗,如若转载,请注明出处:https://www.kejixun.co/article/731260.html

泡沫大盗的头像泡沫大盗认证作者

相关推荐

发表回复

登录后才能评论