‌谷歌AI编程工具Antigravity曝严重安全漏洞 可被利用执行恶意代码

‌谷歌AI编程工具Antigravity曝严重安全漏洞 可被利用执行恶意代码

谷歌基于Gemini推出的AI编程工具”Antigravity”在上线24小时内即被曝出严重安全漏洞。安全研究员亚伦·波特诺发现,通过修改该工具的配置设置,攻击者可诱导AI执行恶意代码,从而在用户计算机上创建”后门”,进而实施恶意软件安装、数据窃取甚至勒索攻击。该漏洞影响Windows和Mac系统,仅需用户运行一次攻击代码即可获得系统访问权限。

波特诺指出,该漏洞暴露出企业在AI产品发布前缺乏充分的安全测试。他强调”AI系统被赋予巨大信任假设,却几乎没有安全边界”,尽管他已向谷歌提交漏洞报告,但截至目前仍未获得修复补丁。谷歌方面承认,除该漏洞外,Antigravity还存在另外两个可被利用访问用户文件的漏洞。网络安全研究人员公开披露的多个漏洞引发业界质疑,认为谷歌安全团队在产品发布准备上存在疏漏。

专家分析称,AI编程工具普遍存在脆弱性,多基于过时技术且设计存在安全隐患。由于这类工具通常拥有广泛的数据访问权限,极易成为黑客目标。随着AI技术快速发展,类似安全风险正持续增加。波特诺建议谷歌至少在Antigravity执行用户代码时增加额外警告提示,强调AI工具在实现自动化功能的同时必须配备足够的安全防护机制,以防止被恶意利用。

原创文章,作者:Google,如若转载,请注明出处:https://www.kejixun.co/article/739783.html

Google的头像Google认证作者

相关推荐

发表回复

登录后才能评论