OpenAI与Cerebras联合发布实时编程模型Codex-Spark 每秒千token即时反馈

OpenAI与Cerebras联合发布实时编程模型Codex-Spark 每秒千token即时反馈

当地时间2月12日,OpenAI与算力硬件公司Cerebras共同宣布推出GPT-5.3-Codex-Spark模型,主打实时编程场景。这是双方合作以来首个公开发布成果,模型由Cerebras提供基于晶圆级引擎(Wafer-Scale Engine)的硬件支持,并以“研究预览”形式向ChatGPT Pro用户开放。

Codex-Spark被定义为专为实时协作设计的小型高效模型,核心卖点在于其超千token每秒的推理速度,可显著缩短开发者在编码过程中的等待时间。OpenAI在公告中表示,随着agentic coding模式逐渐普及,机器可在无人监督下持续工作数小时,但这也带来了开发者对过程掌控感下降、反馈周期拉长等问题。Codex-Spark正是在此背景下推出,旨在让开发者保持主导地位,通过即时响应实现更流畅的迭代操作。

在能力层面,该模型针对快速推理进行了深度优化。据OpenAI披露,在SWE-Bench Pro、Terminal-Bench 2.0等软件工程基准测试中,Codex-Spark在完成任务耗时显著降低的同时,回答质量优于前代GPT-5.1-Codex-mini。模型擅长精确修改代码片段、灵活调整开发计划,并能够围绕代码库进行上下文问答。官方特别指出,该模型适用于前端布局快速可视化、样式参数调优以及新界面变更的即时测试等高频反馈场景。

此次合作中,Cerebras的硬件能力成为关键支撑。其晶圆级引擎拥有业内最大的片上内存,可支持每秒数千token级别的推理吞吐,且能够横向扩展至数千套系统,将高速内存容量提升至多TB级别。OpenAI表示,计划在2026年将这种超高速推理能力拓展至更大规模的前沿模型中。

目前Codex-Spark已在Codex应用、命令行界面及VS Code扩展中向ChatGPT Pro用户开放,部分设计合作伙伴也将逐步获得API访问权限。随着模型从预览走向更广泛的应用,OpenAI与Cerebras的此次联手,或将为实时人机协作编程开辟一条全新的技术路径。

原创文章,作者:AI,如若转载,请注明出处:https://www.kejixun.co/article/745408.html

AI的头像AI认证作者

相关推荐

发表回复

登录后才能评论