在国产 AI 芯片百花齐放的当下,一个尖锐的矛盾日益突出:碎片化的生态带来的适配成本呈指数级上升,性能优化高度依赖“专家经验”,严重拖慢了AI模型的落地节奏。智子芯元(深圳)科技有限公司近日宣布完成新一轮数千万元融资,由同创伟业、钧山资本等机构共同投资,其提出的“AI+运筹”方案,正试图系统性解决这一工程难题。

康迅(智子芯元联合创始人)
智子芯元的核心在于其底层智能引擎 KernelCAT。它并非单一编译器,而是一个将芯片特征等效建模,并利用AI进行搜索决策的优化框架。其目标是把模型从“能够部署”推进到“能够在目标芯片上高效、稳定地运行”。一个案例是,该引擎曾帮助客户在 38 分钟内,将多模态模型 DeepSeek-OCR-2 全自动迁移到华为昇腾平台并完成推理验证。
“我们做的是把复杂适配问题,转化为可计算的优化问题。”智子芯元创始人丁添(曾于华为2012实验室负责复杂系统的“黑盒优化”研究)表示。传统运筹优化依赖专家,AI 大模型长于模式识别但缺乏确定性,智子芯元将两者结合,使系统在具备自动搜索能力的同时,保证输出结果的可解释性与稳定性。

基于 KernelCAT 这一底座,智子芯元也已推出两款核心应用产品:Kerminal 和 KerWork,前者解决算力生态的系统性问题,而后者是 KernelCAT 在端侧应用的能力体现。据了解,Kerminal 辅助售前团队在一周内完成了超过 15 个主流 SOTA 开源模型在昇腾 NPU 上的全流程适配,且产品支持每批次 5-10 个模型并行排队执行,对于单个 SOTA 模型,从启动适配任务,到产出包括精度验证报告和性能基准测试的完整交付件,周期从原先的“周”级缩短至“小时”级。这标志着,智子芯元交付给客户的不再是“定制化服务”,而是“标准化的效率产线”。
尤为关键的是其“生态中立”定位。KernelCAT 的能力已在昇腾、鲲鹏、摩尔线程、壁仞、燧原等多元国产芯片上得到验证。这一定位使其不绑定任何单一硬件厂商,旨在通过运筹优化技术与通用 AI 智能体,成为连接不同算力生态的智能优化层。这不仅能加速国产算力生态的繁荣,也保障了终端企业的供应链安全与选型灵活性。
业内人士认为,智子芯元所切入的,是AI基础设施从“拼峰值算力”到“拼系统能效”转型的关键赛道。本轮融资后,其通过自动化工具将国产芯片从“能用”推向“高效可用”的实践,值得持续关注。
本文来自投稿,不代表科技讯立场,如若转载,请注明出处:https://www.kejixun.co/article/752035.html