‌英伟达发布业界首个自动驾驶视觉语言模型Alpamayo-R1 加速具身智能布局

‌英伟达发布业界首个自动驾驶视觉语言模型Alpamayo-R1 加速具身智能布局

在近日于加利福尼亚州圣地亚哥举行的NeurIPS人工智能大会上,英伟达正式推出面向自动驾驶的开源视觉语言动作模型Alpamayo-R1,并称其为业界首个专注该领域的同类模型。该技术基于其2025年1月发布的Cosmos-Reason推理模型构建,通过整合文本与图像处理能力,使车辆能够实时感知环境并做出决策,为L4级自动驾驶(特定条件下的完全自动驾驶)提供关键技术支撑。

英伟达在博客中强调,Alpamayo-R1的推理能力可赋予自动驾驶车辆类似人类的“常识”,以应对复杂场景中的细微判断。目前,该模型已在GitHub和Hugging Face平台开源,同时配套发布的“Cosmos Cookbook”开发资源包,进一步降低了开发者使用和训练模型的门槛,涵盖数据整理、合成生成到评估的全流程工具。

此次发布标志着英伟达全面进军具身智能(Physical AI)领域。公司CEO黄仁勋及首席科学家比尔·达利多次公开表示,具身智能将是AI的下一个浪潮,尤其在机器人领域。达利更直言“目标是打造所有机器人的‘大脑’”,而自动驾驶与机器人技术正是其核心应用场景。

从AI芯片到自动驾驶模型,英伟达正通过技术整合构建具身智能的生态基础。随着Alpamayo-R1的开源,其能否推动行业加速迈向L4级自动驾驶,值得持续关注。

原创文章,作者:happy,如若转载,请注明出处:https://www.kejixun.co/article/740061.html

happy的头像happy管理团队

相关推荐

发表回复

登录后才能评论