近日,有网友在社交平台发帖称某某头部AI企业旗下的AI工具泄露用户隐私。这一消息迅速发酵,引发全网对用户隐私安全的担忧。

信息泄露截图
涉事用户表示,自己在使用该AI助手处理工作时,误发了一张图片后,系统竟向其发送了一份陌生人的完整简历,其中包含姓名、电话、邮箱等敏感个人信息。更令人不安的是,网友通过简历上的联系方式联系到了对方,确认对方确实在同一时间段使用了该 AI 助手处理简历相关事务。

《2026 全球网络安全展望报告》
近年来,随着 AI 技术的狂飙突进,隐私泄露事件屡见不鲜;层出不穷的安全漏洞,正持续侵蚀着公众对 AI 的信任底线。根据世界经济论坛《2026 全球网络安全展望报告》显示,高达87%的受访者表示此类风险显著上升。展望2026年,生成式AI导致的数据泄露(34%)与不断演化的攻击能力(29%)已成为业界最关切的两大威胁方向。与此同时,94%的领导者预期,AI将成为2026年塑造网络安全格局的决定性力量。
面对 AI 时代日益严峻的隐私安全挑战,传统加密技术已难以胜任,数据一旦进入模型的计算与推理环节,便会导致用户隐私在云端完全暴露,形同‘裸奔’。
“用户苦AI隐私安全久矣”
荆华密算作为一家专注于高性能AI密态计算的前沿科技企业,聚焦“数据可用不可见”的核心需求,通过底层架构与密码学设计的定制化重构,实现AI场景下密态计算从千倍左右降至可用水平,在核心性能指标上达到全球领先水平。
面向企业用户打造两款核心产品,高性能密态推理引擎和高性能密态计算引擎:
高性能密态推理引擎:直击个人和企业用户的 “10 分钟隐私” 需求。用户在使用云端密态大模型时,系统会自动把问题和文件在 PC 和移动端本地加密为密态,然后再发送给云端进行 “可用不可见” 的计算,计算得到的结果也以密文发回本地,再在本地将结果解密为明文。该过程可以保证数据在传输、存储与计算过程中的安全。
高性能密态训练引擎:该引擎主要为了保障数据拥有企业在数据交易中的权益,重点解决购买了 AI 训练数据集的客户可能轻易将数据转手出售导致供数方利益和隐私损失的问题。荆华密算团队提出 “睡后收入” 一词,预期能在保障数据 “零泄露” 的前提下,将数据资产租赁出去,多次重复变现,形成持续收入管道。
当用户隐私在AI应用中频频“裸奔”,如何筑牢数据安全防线,已然成为AI规模化应用必须跨越的核心门槛。荆华密算的出现,正是为破解这一时代难题而来——将密态计算性能损耗降至可用水平,让“数据可用不可见”从理论构想落地为实践方案,为个人与企业打造真正安全可靠的AI使用路径。
本文来自投稿,不代表科技讯立场,如若转载,请注明出处:https://www.kejixun.co/article/750980.html