HILOVEYOUTU 发表于 5 小时前

Nvidia:让机器人更像人类 打造能「连续决策」的大脑

https://pgw.worldjournal.com/gw/photo.php?u=https://uc.udn.com.tw/photo/wj/realtime/2025/08/13/32892751.jpg&x=0&y=0&sw=0&sh=0&sl=W&fw=800&exp=3600&q=75AI 机器人示意图。 (AI 生成)辉达 (Nvidia)强攻机器人放大绝,昨(12)日宣布推出最新涵盖多达 70 亿参数的推理视觉语言模型,主打「要让机器人更像人类」,透过结合视觉感测应用,让机器人基于既有知识与概念,学会「连续决策」,并在理解后采取行动,堪称可打造机器人的推理大脑。


业界认为,这是英伟达引领全球机器人发展跨出更重要的一步,也意味 AI 算力应用再创颠峰,对致力于开发机器人的鸿海、广达等大型集团是一大助力,同时也将加速 AI 服务器建置需求。


英伟达在昨天绘图芯片业年度盛会「SIGGRAPH 2025」上,发表推理视觉语言模型「Cosmos Reason」。


英伟达说明,「Cosmos Reason」是一款专为物理 AI 应用与机器人设计的 70 亿参数「推理」视觉语言模型,具备超强大功能,并加入让机器人具备与人一样的「推理」能力,透过先验知识、物理理解和常识,让机器人与视觉 AI 代理像人类一样分析情境、判断下一步行动。


英伟达表示,机器人规划与推理技术如机器人视觉语言行动(VLA)模型的大脑,让模型可深思熟虑、有条不紊地做出决策。 「Cosmos Reason」可让机器人解读环境、在收到复杂的指令后,将指令分解为各种工作,即使在不熟悉的环境,也能运用常识执行这些工作。


英伟达强调,「Cosmos Reason」是适用实体 AI 与机器人的全新开放式、可完全定制化。 谈到「Cosmos Reason」和既有视觉语言模型(VLM)的差异,英伟达说明,自 OpenAI 推出 CLIP 模型以来,视觉语言模型(VLM)已广泛应用于对象与模式识别等计算机视觉任务,但仍难以处理多步骤任务、含糊情境或全新经验,「Cosmos Reason」可突破上述限制,这种能力对于需要连续决策的场景,如机器人任务规划或自驾车路径预测,尤其关键。


「Cosmos Reason」可用于数据管理与标注、机器人规划与推理,以及影片分析 AI 代理,让系统在面对复杂指令时,能拆解成可执行的步骤并作出符合常识的判断,即使处于陌生环境也能正确行动。点击下面文字可快速查看或发布对应的便民信息!纽约情报站让您的生活变的更简单:hug:电召车 :hug:顺风拼车:hug:汽车买卖 :hug:便捷搬家:hug:招聘求职 :hug:店铺转让:hug:房屋出售 :hug:商家黄页简介:纽约情报站是汇集全美75万粉丝的公众平台。除了实时新闻、找工招工信息发布、app社区互动,更有微信公众号推文探店等。如果你投稿、爆料、活动策划、商务合作,或者想邀请我们去探店,请联系主编微信: nyinfor
页: [1]
查看完整版本: Nvidia:让机器人更像人类 打造能「连续决策」的大脑