当前位置: 首页 > news >正文

大模型 与 自驾 具身 3D世界模型等相关知识

大模型相关概念,图解

Docker 入门终极指南

Docker 入门到掌握万字

https://www.docker.com/blog/intro-guide-to-dockerfile-best-practices

https://docs.docker.com/develop/develop-images/dockerfile_best-practices

为什么以及如何在你自己的电脑或手机上运行类似 ChatGPT 的 AI 大模型?

1. 为啥要自己跑?

  • 隐私保护: 像 ChatGPT、Gemini 这些在线聊天机器人,它们背后的公司(如 OpenAI、Google)可能会用你的聊天记录来训练模型。这意味着你私下跟 AI 说的话,可能会被“学”进去,未来可能被别人问到。自己跑模型,你的对话就只在你电脑里,谁也别想看。
  • 摆脱大公司控制: 这些 AI 巨头掌控着强大的模型,自己跑模型就像拥有了自己的“小帮手”,不用依赖他们。技术掌握在谁手里,权力就在谁手里。
  • 体验更稳定: 在线模型经常偷偷更新(比如突然变得爱拍马屁,或者自称“机械希特勒”),功能和行为说变就变。自己跑模型,它就一直是那个样子,不会“性情大变”。
  • 培养“AI 直觉”: 自己跑的小模型能力弱一些(更容易“胡说八道”),但通过观察它们犯错,你更能理解大模型的局限性和潜在风险(比如它们也会撒谎,只是更隐蔽)。
  • 有趣/爱折腾: 对技术爱好者来说,探索各种模型、让它们在本地跑起来,本身就是一件很有趣、很有成就感的事情。就像有人喜欢组装电脑一样。
  • 极端情况准备(脑洞): 文章开头有个有趣的例子:有人把开源模型存在 U 盘里,万一世界末日了,可以靠它里面的知识尝试重建文明(虽然有点科幻)。

2. 能跑得动吗?

  • 技术进步了! 以前跑大模型需要好几万美元的专业服务器。现在不一样了!
  • 模型变小变快了: 研究人员成功地把模型压缩得更小、效率更高。
  • 硬件要求降低: 普通笔记本电脑甚至智能手机 现在都能运行一些不错的模型了。比如:
    • 一台 16GB 内存的普通笔记本,就能跑动像“通义千问 14B”这样有一定能力的模型(虽然比顶级的在线模型弱)。
    • 老旧的 iPhone 12 也能跑非常小的模型(如 Llama 3.2 1B),虽然效果不太好(容易胡说八道),但确实能跑!

3. 怎么开始?

  • 给懂点技术的你(会用命令行):
    • 推荐工具:Ollama (https://ollama.com/)
    • 安装好后,用一行简单的命令就能下载和运行几百种模型。
  • 给不想碰代码的你(图形界面爱好者):
    • 推荐工具:LM Studio (https://lmstudio.ai/)
    • 像 App Store 一样,在软件里浏览、下载模型(比如 Hugging Face 上的),有清晰说明告诉你哪个模型你的电脑能跑动。下载完点个按钮就能开始聊天了。
  • 给想用手机玩的你:
    • 可以试试 LLM Farm 之类的 App。
    • 手机上只能跑非常小的模型,效果有限(容易跑偏、胡说),主要是尝鲜和趣味性。比如在没网的时候应急查点资料(虽然可能不准)。

自己在本机运行 AI 模型不再是遥不可及的技术大神专利。保护隐私、摆脱巨头控制、获得稳定体验、培养技术直觉、享受折腾乐趣——这些都是自己跑模型的好处。得益于技术进步,普通电脑和手机也能跑得动。根据你的技术喜好,可以选择 Ollama(命令行)LM Studio(图形界面) 轻松上手。手机也能玩,但效果差些。文章作者觉得对大多数人来说这可能不是必须的,但对于感兴趣的人来说,这真的很有趣也很有价值。

LocalLLaMA
突然开始
Ollama
一条命令
LM Studio
Qwen3 14B


核心问题:实现 L4 级别自动驾驶,纯视觉方案是否足够?还是必须依赖激光雷达?

解析:

  1. 事件的起因:

    • 懂车帝的测试结果显示,采用纯视觉方案的特斯拉表现优秀,排名第一。
    • 这个结果引发了行业讨论:纯视觉方案是否已经足以胜任对感知能力要求极高的 L4 级别自动驾驶?
  2. L4 对感知能力的要求:

    • L4 意味着车辆能在特定条件下完全自主驾驶,无需人类干预。这对环境感知能力提出了极高的要求:必须稳定可靠,能应对各种复杂、极端(“长尾”)场景
    • 感知系统相当于车辆的“感官”。目前主要有三种传感器:
      • 摄像头: 模拟人眼,获取丰富的色彩和纹理信息。缺点: 对光线、天气(强光、黑夜、雨雪雾霾)非常敏感,可能导致识别错误。
      • 毫米波雷达: 类似听觉,能在恶劣天气下探测物体距离和速度。
      • 激光雷达: 发射激光脉冲,生成高精度的 3D 点云图,能精确测量距离和形状,受光线影响小。缺点: 传统上成本高、体积大、在雨雪雾中也会受干扰(噪声点),虽然固态激光雷达在改进中。
  3. 纯视觉方案的特点与挑战:

    • 优势: 硬件成本低(主要用摄像头),易于集成。

    • 核心挑战:

      • 环境敏感性: 在光线不佳或恶劣天气下,图像质量会严重下降,可能导致算法误判(“幻想”现象,Garbage in, Garbage out)。
      • 安全冗余不足: L4 要求“失效可运营”,即一个部件坏了系统还能安全运行。纯视觉方案缺少其他传感器的冗余备份,一旦摄像头失效或被干扰,风险很高。
      • 长尾场景困难: 对于罕见但危险的极端场景(如复杂路障、夜间动物),仅靠视觉信息准确重建和决策难度更大。
      • 依赖强大算法: 特斯拉的成功很大程度上依赖于其非常先进的 FSD(尤其是 V12 的端到端模型)软件和庞大的数据训练。这不容易复制。
      • 可解释性挑战: 像 FSD V12 这样的端到端模型像个“黑盒子”,出问题时难以调试。
    • 现状: 当前纯视觉方案在 L2 辅助驾驶(如比亚迪天神之眼 C)中应用较多且有效,但在要求绝对安全冗余的 L4 场景中面临巨大挑战。

  4. 激光雷达方案的特点与价值:

    • 核心优势:
      • 提供精确的 3D 深度信息: 点云数据不受光照影响,能在黑夜和弱光下可靠工作,测量精度高(厘米级)。
      • 增强冗余: 作为独立于摄像头的感知源,当摄像头失效时,它能提供关键的环境信息。
      • 提升定位和场景理解: 点云更容易与高精地图匹配,提高车辆定位精度和对环境的理解。
    • 挑战: 成本相对较高(尽管在下降),雨雪雾天气下也可能产生噪声点(但通常仍能提供有价值信息)。
  5. 作者/行业的主流观点:感知融合是 L4 的可行路径

    • 要实现 L4 级别的安全性和可靠性,单一传感器方案风险过高
    • 多传感器融合(摄像头 + 激光雷达 + 毫米波雷达)是当前最被看好的方向:
      • 冗余保障: 不同传感器互为备份,一个失效或被干扰,其他的能顶上,满足“失效可运营”要求。
      • 优势互补: 摄像头提供丰富的语义信息(是什么),激光雷达提供精确的几何和深度信息(在哪里,什么形状),毫米波雷达提供速度和距离信息。它们结合起来能构建更全面、更可靠的环境模型。
      • 应对长尾场景: 融合多模态数据有助于更准确地理解和应对复杂、罕见的极端情况。
      • 符合商业化安全标准: 对于运营 Robotaxi 的车队,投入激光雷达以换取更高安全性是必要的商业考量。

在这里插入图片描述

  1. 成本与商业考量:
    • 激光雷达会增加车辆成本(BOM)。对于主要卖车的普通乘用车厂商,成本是重要因素,纯视觉方案更有吸引力。
    • 但对于计划运营 Robotaxi 的车企,安全和可靠性是核心,更倾向于采用包含激光雷达的融合方案来满足 L4 的严苛要求。
  • 纯视觉方案(如特斯拉)在特定测试和 L2 场景中表现优异,证明了其潜力,尤其依赖强大软件。
  • 然而,L4 对安全性、冗余性和极端场景处理能力的要求极高,纯视觉方案目前面临环境敏感性、安全冗余不足、长尾场景等关键挑战,难以单独胜任。
  • 激光雷达在提供精确深度信息、增强冗余方面具有不可替代的优势。
  • 行业共识(基于当前技术):实现安全可靠的 L4 自动驾驶,最可行的路径是采用多传感器(摄像头 + 激光雷达 + 毫米波雷达)融合的方案。 纯视觉方案可能作为特定场景的补充或成本优化方案与融合方案共存发展。
  • 未来展望: 纯视觉算法(如端到端模型)和仿真技术会持续进步,激光雷达的成本和性能也会优化。但多传感器融合在可预见的未来仍是 L4 的主流方向。安全性是 L4 的核心,冗余是安全的基石。

清华和佐治亚理工的研究团队,已被顶级会议ICCV 2025接收,主题是关于如何在不使用真实数据的情况下压缩目标检测模型(如YOLO),解决数据隐私问题。

问题背景:为什么需要这个方法?

  • 模型量化是什么?
    目标检测模型(如YOLO)通常很大、计算慢,不适合手机等小设备。量化就像“压缩”模型:把高精度数字(如32位)变成低精度(如8位),让模型变小、变快。但压缩后会损失一些精度(比如检测物体的准确性下降)。

  • 传统方法的痛点:
    要恢复精度,通常需要用真实训练数据来微调模型(这叫量化感知训练,QAT)。但真实数据可能涉及隐私或安全问题(如医疗、安防场景),无法获取。现有的“零样本量化”(ZSQ)方法试图用合成数据(电脑生成的假图像)代替真实数据,但生成的数据太“泛泛”,缺乏目标检测需要的关键信息(如物体位置、大小),导致压缩后模型性能很差。

这张图展示了传统ZSQ方法的问题:用普通合成数据(Task-agnostic)训练,性能远不如真实数据或本文方法(Task-specific)。

在这里插入图片描述

核心解决方案:任务特定零样本量化(TS-ZSQ)

研究团队提出一个新方法,叫任务特定零样本量化(TS-ZSQ)。核心思想是:既然目标检测需要关注物体的位置和类别,那就生成“带任务信息”的合成数据。方法分为两步,全程不用任何真实数据。

第一步:生成带物体信息的合成图像
  • 做什么? 用预训练好的目标检测模型(如YOLO)生成合成图像。这些图像不是随便画的,而是包含模拟真实场景的物体信息(如行人、汽车的位置和大小)。

  • 怎么做到? 用一个聪明策略:边界框与类别采样。简单说,就是从模型中“提取”物体的位置和类别分布,然后生成新图像。比如,如果原数据中汽车常出现在图像中央,合成数据也会这样设计。

    这张图展示了生成的效果:左边是真实数据(MS-COCO),右边是本文方法生成的合成图像,物体位置和分布很接近真实。

在这里插入图片描述

第二步:用合成数据训练压缩模型
  • 做什么? 用生成的合成数据来训练压缩后的模型(学生模型),让它学习原模型(教师模型)的检测能力。

  • 关键创新:任务特定蒸馏
    不是只学整体特征,而是专注目标检测任务本身:比如,直接学怎么预测边界框(物体位置)和类别(是什么物体)。这样,学生模型能更精准地恢复教师模型的能力。

    这张图展示了训练框架:合成数据输入后,学生模型通过任务特定蒸馏(如边界框预测)学习教师模型的输出。

在这里插入图片描述

效果如何?实验结果说话

团队在标准数据集(MS-COCO、Pascal VOC)上测试了YOLO系列模型(如YOLOv5)和Mask R-CNN模型。只用2000张合成图像,就能达到接近真实数据训练的效果:

  • 性能对比: 下表中的“TS-ZSQ”是本文方法。可以看到,在6位量化(W6A6)下,性能几乎和用真实数据训练(Real Data QAT)一样好,远超其他零样本方法(如DFQ、ZeroQ)。

在这里插入图片描述

  • 泛化能力: 对基于Transformer的Mask R-CNN模型同样有效(下图),mAP指标接近真实数据训练水平。

在这里插入图片描述

为什么这个方法重要?

  • 解决隐私问题: 全程不用真实数据,企业可以安全地压缩模型,避免法律风险。
  • 性能强: 在目标检测任务上,首次让零样本量化达到接近真实数据训练的水平(SOTA),对手机、自动驾驶等应用很实用。
  • 开源可用: 代码已公开(项目地址:https://github.com/DFQ-Dojo/dfq-toolkit),任何人都能试用。

这篇论文就像给目标检测模型“减肥”,但不用真数据当“食谱”,而是自己生成“虚拟食谱”来练手。方法聪明、效果好,还能保护隐私——对AI落地很实用!

OmniVision-968M 的 AI 模型是目前世界上最小的多模态视觉模型(VLM),专门为手机、笔记本电脑等小设备设计的。就像一个轻量级的“智能眼睛”,能同时看懂图片和文字,但体积超小、速度超快,还保护你的隐私。

为什么需要这个小模型?

  • 大模型的痛点:现在很多 AI 模型(比如 ChatGPT)又大又慢,必须在云端服务器运行,耗电高、响应慢,还可能泄露你的隐私(比如你上传的照片)。
  • 边缘计算的需求:像手机、智能摄像头这种小设备,资源有限(内存小、算力弱),需要轻量级模型直接在本地运行,不用联网也能用。
  • OmniVision-968M 的亮点:它只有 9.68 亿参数(比很多模型小 10 倍以上),但能力很强:
    • 在苹果 M4 Pro 笔记本上,不到 2 秒就能描述一张高清图片(比如 1046×1568 像素)。
    • 运行时只占 988MB 内存(普通手机都能跑)。
    • 完全本地运行,保护你的数据隐私。

它是怎么做到的?三大关键设计

  1. 超级精简的架构(就像给模型“瘦身”):
    • 视觉部分:用一个叫 SigLIP-400M 的编码器快速“看”图片,把图片压缩成更少的信息块(Token 从 729 减到 81 个,压缩了 9 倍),大大降低计算量。
    • 语言部分:用一个叫 Qwen2.5–0.5B 的小模型处理文字,理解你的指令(比如“描述这张图”)。
    • 连接层:一个中间模块把图片和文字信息对齐,确保模型“看”得准、“说”得对。
    • 下面是架构图,帮你直观理解:

在这里插入图片描述

  1. 智能训练方法(分三步练出“真本事”):

    • 预训练:用海量图片和文字配对学习基础能力(比如知道“狗”长啥样)。
    • 微调(SFT):用带问题的数据集继续练,提升实战能力(比如回答“图里有几只猫?”)。
    • 优化(DPO):用“好答案”和“坏答案”对比训练,减少胡说八道(比如避免把猫说成狗)。
  2. 减少幻觉:通过上述训练,模型输出更靠谱,不像有些 AI 会瞎编(比如看到草地非说有狮子)。

实际效果:小身材,大本事

  • 性能碾压:在标准测试中,它打败了之前最小的模型 nanoLLAVA,尤其在速度、准确性和内存占用上领先。
    • 比如看图描述任务,得分更高(见下图对比):

在这里插入图片描述

  • 实用场景举例
    • 描述图片:输入一张风景照,它输出“三匹马在池塘边喝水,画面很宁静”。
    • 辅助记忆:比如拍一张药盒照片,它能识别药品信息。
    • 生活助手:给食物拍照,它能生成简单食谱(比如“西红柿炒鸡蛋的步骤”)。
    • 设备识别:对着电视背面拍,它能指出 HDMI 接口位置。

超简单部署

如果你想在电脑上跑这个模型,官方提供了教程,核心步骤就几步:

  1. 安装依赖:用 Python 装几个包(如 PyTorch、Transformers)。
    pip install torch transformers huggingface_hub
    
  2. 安装 Nexa SDK:支持 GPU 加速(如果有英伟达显卡)。
    pip install nexaai
    
  3. 运行模型:一行命令启动,然后输入图片路径和问题。
    nexa run omnivision
    > /你的图片路径.jpg
    > 描述这张图
    
  4. 看结果:模型直接在本地输出文字描述,不联网、超快。
  • 隐私保护:数据不用上传云端,避免泄露风险。
  • 降低成本:小模型省电省钱,适合智能家居、车载设备等。
  • 技术突破:证明了小模型也能有大智慧,推动 AI 在真实场景落地。
  • 开源可用:模型已开源(Hugging Face 搜 NexaAIDev/omnivision-968M),任何人都能免费试用。

OmniVision-968M 就像给你的手机装了个“离线版智能助手”,看图说话、识物问答样样行,速度快还省电——这就是边缘 AI 的未来方向!如果有兴趣,可以去官网下载试试

  • 模型链接:ttps://huggingface.co/NexaAIDev/omnivision-968M
  • 在线演示:https://huggingface.co/spaces/NexaAIDev/omnivlm-dpo-demo

框架名称核心定位项目地址核心优势适用场景
Dify企业级低代码平台https://github.com/langgenius/dify图形化工作流 + 阿里云深度集成企业知识库、客服系统、快速原型开发
Coze零代码AI应用开发https://www.coze.cn/
https://github.com/coze-dev
拖拽式设计 + 60+预置插件聊天机器人、营销文案生成、自动化测试
n8n工作流自动化引擎https://github.com/n8n-io/n8n400+应用节点 + 可视化编排跨系统数据同步、轻量级任务自动化
AutoGen多Agent科研框架https://github.com/microsoft/autogen动态对话协作 + 深度任务分解科研项目、代码生成、复杂决策系统
LangChain模块化开发工具链https://github.com/langchain-ai/langchain链式推理架构 + RAG深度支持文档问答、代码助手、企业级RAG应用
CrewAI角色分工协作框架https://github.com/crewAIInc/crewAI团队角色模拟 + 任务可视化内容创作、多步骤数据分析
1. Dify
  • 核心能力
    • 支持多模型接入(OpenAI/通义千问等)
    • 内置文档解析→向量化→检索全流程
    • 企业级监控与热部署插件
  • 典型场景
    # 示例:快速构建知识库问答系统
    dify.create_app(name="企业知识助手",llm="qwen-max",plugins=["doc_parser", "cloud_database"]
    )
    
  • 项目地址:https://github.com/langgenius/dify
2. Coze
  • 突破性设计
    • 零代码拖拽界面,3分钟创建AI Bot
    • 内置长期记忆与定时任务功能
    • 支持私有化部署(Golang后端 + React前端)
  • 实战案例

    某银行用Coze构建性能测试Agent,效率提升5倍

  • 官方入口:https://www.coze.cn/
3. n8n
  • 核心价值

    • 连接400+应用(Slack/Google Sheets等)
    • 混合编程模式(低代码+自定义JS)
  • 适用边界
    ❌ 不适合高复杂度AI Agent
    ✅ 理想用于跨平台自动化

  • 源码地址:https://github.com/n8n-io/n8n

4. AutoGen
  • 技术亮点
    • 多Agent动态协商(如AssistantAgent↔UserProxyAgent)
    • 支持终止条件编程控制
    # 示例:多Agent代码审查
    group_chat = GroupChatManager(agents=[coder, reviewer])
    coder.initiate_chat("实现Python数据清洗脚本")
    
  • 科研首选:微软背书 + 学术场景优化
  • 项目链接:https://github.com/microsoft/autogen
5. LangChain
  • 核心模块
    • Chain:多步推理流水线
    • Tool:灵活扩展外部API
    • LangSmith:全链路调试平台
  • 企业级方案

    某电商用LangChain+RAG构建商品问答系统,准确率提升40%

  • 仓库地址:https://github.com/langchain-ai/langchain
6. CrewAI
  • 创新机制

    • 角色分工(研究员/编辑/执行者协作)
  • 场景局限
    ❌ 弱多模态支持
    ✅ 强项在流程化创作/分析

  • 代码仓库:https://github.com/crewAIInc/crewAI


零代码/快速原型
企业级应用
科研/深度协作
角色化任务流
跨系统自动化
需求类型
Coze或Dify
Dify或LangChain
AutoGen
CrewAI
n8n
  1. 新手/快速验证Coze(30秒创建Bot)
  2. 企业集成Dify(阿里云生态) + LangChain(RAG深度支持)
  3. 科研/多AgentAutoGen(动态协作天花板)
  4. 角色化任务CrewAI(仿团队分工机制)
  5. 轻量自动化n8n(400+节点覆盖)

注:所有框架均开源,建议通过官方GitHub链接探索具体实现。技术选型需综合团队技能栈与长期维护成本,持续关注框架迭代(如AutoGen对多模态的扩展计划)。

现实世界的图像尺寸千差万别(手机竖拍/电影横屏/医学长图),传统模型需强制缩放或裁剪图像,导致:

  • 信息丢失:缩放让小字变模糊(如处方单药品名)
  • 比例失真:裁剪破坏整体结构(如截断建筑设计图)
  • 计算低效:高分辨率图像直接处理消耗巨大算力
方法原理代表模型优缺点
上采样放大低清特征图Qwen-VL⚠️放大后细节仍模糊,计算负担大
分块裁剪像拼图一样切分图像再重组LLaVA-NeXT, DeepseekVL2✅ 节省算力⚠️ 切碎后丢失全局关联
混合编码高低分辨率双路分析Cambrian-1✅ 兼顾效率与细节⚠️ 两套系统复杂
原生分辨率🌟直接处理原始尺寸图像Qwen-2VL, Kimi-VL✅ 零信息损失⚠️ 需特殊位置编码技术支持

图示:分块裁剪法将图像切分为小方块(如九宫格),分别分析后拼接

在这里插入图片描述

原生分辨率技术核心技术突破
  1. 动态位置编码(2D RoPE)

    • 传统方法:给图像贴固定“坐标贴纸”(位置编码),缩放后坐标全乱
    • 2D RoPE:像伸缩尺子,根据图像真实宽高动态生成坐标
    # 传统固定编码(失效!)
    position_encoding = [0.1, 0.2, 0.3...] # 固定长度
    # 2D RoPE动态编码(√)
    position_encoding = generate_by_real_size(width, height) 
    
  2. 特征压缩术
    高分辨率图像产生海量特征点(如8K图→数万点),通过两步精简:

    • 步骤1:将图像分割为14x14像素的小块(如336x336图 → 24x24=576块)
    • 步骤2:每2x2=4块合并成1个特征点(576 → 144点),保留核心信息
  3. 智能打包批处理

    • 传统:每张图单独填充到最大长度(产生空白浪费)
    • 创新:像俄罗斯方块紧凑拼接不同尺寸特征
      批处理 = [图1特征][图2特征]...[图N特征]

图示:原生分辨率处理流程

在这里插入图片描述

▶ 测试基准RC-Bench(极端场景吊打传统方案)
  • 模拟真实场景:包含超宽屏(16:1)、超竖图(1:8)、8K超清等极端图像
  • 任务设计:需识别图中微小文字/复杂图表(如图中识别模糊的「GST ID」)

图示:RC-Bench测试样本(文档/图表/手写体)

在这里插入图片描述

  1. 常规场景:原生分辨率 ≈ 分块裁剪
    (如处理手机拍摄的600x800照片)
  2. 极端场景原生分辨率完胜
    • 超宽设计图识别:准确率高26%
    • 超长医学报告解读:错误率降低29%

图示:消融实验对比(绿色越深表示原生方案优势越大)

在这里插入图片描述

价值
  • 医疗:直接解析CT长图无需分割
  • 金融:识别超宽股票走势图细节
  • 工业:处理高精度设计图纸无失真
  • 日常:手机拍文档直接识别小字

让AI像人眼一样,无论图片大小都能自适应聚焦细节,消除数字世界的“近视”缺陷。

https://arxiv.org/pdf/2506.12776

https://arxiv.org/pdf/2307.06304

核心问题:图像尺寸和分辨率千变万化,如何让AI模型“看”得清、“看”得全?

你用手机拍照:

  1. 拍一张竖着的文件:图像又窄又高(比如 500像素宽 x 2000像素高)。
  2. 拍一张横着的风景照:图像又宽又短(比如 2000像素宽 x 1000像素高)。
  3. 拍一张小物件特写:图像很小但需要看清细节(比如 1000像素宽 x 1000像素高)。
  4. 拍一张超高清海报:图像巨大无比(比如 8000像素宽 x 4000像素高)。

传统模型处理这些图片就像戴着一副不合适的眼镜:

  1. 强行放大(上采样/Upsampling):把低清图放大。就像把模糊的小字强行放大,字是变大了,但还是糊成一团,看不清细节。(代表方法:早期Qwen-VL等)

    • 问题: 放大过程是“猜”出来的,细节恢复不真实。计算量也大。
  2. 强行裁剪(分块/Tiling):把大图切成小块。就像把一张大地图剪成很多张小纸片,每张小纸片单独看能看清细节,但纸片之间的连接关系丢失了,整体结构被破坏了。(代表方法:LLaVA-NeXT, DeepSeek-VL2, InternVL等)

    • 问题: 切碎后难以理解图片的整体含义(比如地图的全局路线、文档的整体排版)。切多少块?怎么切?都是麻烦事。
  3. 强行压缩(固定分辨率输入):不管图片原本多大,都强行缩放到一个固定尺寸(比如 224x224)。就像把一个超宽屏电影硬塞进一个正方形小屏幕里,画面严重变形,内容被挤压或拉伸得不像样子。(几乎所有早期模型)

    • 问题: 变形导致信息丢失(文字重叠、图形扭曲),细节看不清。
  4. 高低配混合(混合编码器):用两个模型,一个看低分辨率整体,一个看高分辨率局部。就像一个人看远处(低清),另一个人拿放大镜看近处(高清),然后两人交流。(代表方法:Cambrian-1, Eagle 2等)

    • 问题: 系统复杂,需要两个模型配合,沟通效率可能不高,成本也高。

革命性解决方案:原生分辨率视觉编码(Naive Resolution)

核心思想:让模型直接“看”图片原本的样子! 不缩放、不裁剪、不扭曲。图片多大、多宽、多高,就用它的“原图”输入模型。

(代表方法:Qwen-2VL, Kimi-VL, OceanOCR, Seed1.5-VL, NaViT, 以及本文介绍的NativeRes-LLaVA)

听起来简单,但实现起来需要解决两大技术难题:

  1. 难题一:位置乱了套 - 动态位置编码(2D Rotary Position Embedding, 2D RoPE)

    • 传统问题: 模型内部需要知道图像中每个小部分(称为“Patch”,通常是14x14像素的方块)的位置信息(坐标)。传统模型使用固定长度的位置编码,就像给固定大小的网格贴坐标标签。
    • 原生分辨率问题: 输入图片尺寸千变万化(竖条、横条、大方块),网格大小和形状都不固定了!固定标签完全对不上号。
    • 解决方案 - 2D RoPE:
      • 它像一把智能伸缩尺角度仪
      • 对于图像中的每一个小方块(Patch),它根据这个方块在原始图像中的真实坐标(i行, j列) 来计算其位置编码。
      • 计算时考虑了宽(i方向)和高(j方向)两个维度,分别进行旋转编码(Rotary Embedding)。
      • 好处: 无论图片是细长的竖版文件(高度远大于宽度)、扁平的宽屏截图(宽度远大于高度),还是接近正方形的照片,2D RoPE都能为其中每一个小方块生成唯一且准确的位置标签,精确反映了它们在原始图像中的空间关系。竖版文档里的文字顺序(上->下)和宽屏图表里的坐标轴(左->右)都能被正确理解。
  2. 难题二:信息量爆炸 - 特征压缩与高效处理

    • 问题: 高分辨率原图包含海量信息。比如一张4000x4000的图,按14x14切分,会得到约 200x200 = 40,000个小方块!每个方块都要计算特征。输入语言模型(LLM)的“视觉单词”(token)数量会极其庞大,计算慢、耗资源,甚至超出模型处理上限。
    • 解决方案 - 特征压缩:
      • 步骤1:分割成小块 (Patchify): 视觉编码器(通常是Vision Transformer, ViT)首先将图像按固定大小(如14x14像素)分割成网格状的小方块。一张336x336的图片会被分成24行 x 24列 = 576个小方块。
      • 步骤2:小块合并降维 (Patch Merging / Pooling): 为了减少数量,模型将相邻的2x2=4个小方块合并成1个。合并时,取这4个小方块特征的平均值(平均池化)或最大值(最大池化),或者通过一个小型神经网络(如卷积)来学习如何合并。这样就把576个特征压缩成了 576 / 4 = 144个特征
      • 好处: 压缩后的特征数量大大减少(144 vs 40,000),计算效率高。同时,因为合并的是相邻区域,局部的细节信息在合并过程中得到了某种程度的保留和聚合,相当于用更少的“视觉单词”概括了更大区域的信息。模型还能通过多层堆叠进行多次压缩。
  3. 难题三:批量处理变麻烦 - 多模态序列打包 (Patch n’ Pack)

    • 传统问题: 训练模型时通常一次处理一批(Batch)图像。传统固定分辨率方法,每张图处理后的特征数量是固定的(比如576个),可以整齐地堆叠成一个立方体输入。
    • 原生分辨率问题: 不同尺寸的原图压缩后,特征数量不同!小图可能只有几十个特征,大图可能有几百甚至上千个。就像把一堆高度不同的箱子装车,为了堆整齐,必须给矮箱子下面垫很多空盒子(Padding) ,浪费空间(计算资源)。
    • 解决方案 - Patch n’ Pack:
      • 不再追求“整齐划一”,而是像装不同大小的包裹进快递车
      • 一批图像压缩后的特征序列(每个序列长度不同) ,首尾相连,拼接成一个很长的连续序列
      • 同时,记录下每个图像的特征序列在这个长序列中的起始位置和结束位置
      • 在模型内部(尤其是关键的注意力机制部分),通过技术手段(如Flash Attention)确保每个图像的特征只和“自己人”做运算(计算注意力),不会错误地“看”到其他图像的特征。不同图像之间的信息是隔离的。
      • 好处: 消除了无效的Padding计算,极大地提高了计算效率和内存利用率,使得处理不同尺寸的原图输入变得可行且高效。

如何验证效果?RC-Bench 基准测试

为了公平比较不同方法处理各种图像的能力,研究者创建了专门的测试集RC-Bench。

  • 特点:
    • 极端多样性: 包含从超小图标(<100x100)到超高清大图(>8000x8000),以及极端宽屏(16:1)、极端竖屏(1:8)等各种“刁钻”图片。
    • 任务依赖细节: 测试问题设计成必须看清高分辨率细节才能正确回答。例如:
      • 识别文档中模糊的小字(如“GST ID”)。
      • 读取复杂图表中密密麻麻的坐标轴标签和交点数值。
      • 分析经过扭曲压缩后文字重叠的竖版文档。
    • 任务类型丰富: 涉及文档、图表、手写体、符号、自然图像等多种类型。

实验结果:原生分辨率的优势

通过RC-Bench的严格测试,比较原生分辨率(如NativeRes-LLaVA)和传统方法(主要是分块裁剪):

  1. 常规尺寸/比例图片: 两者表现差不多。处理手机拍的普通照片、网页截图等,都能胜任。
  2. 极端尺寸/比例图片: 原生分辨率方法显著胜出
    • 处理超宽图片(如超宽设计图): 准确率比分块裁剪方法高出26%
    • 处理超高图片(如长文档/医学影像): 准确率比分块裁剪方法高出24%
    • 处理超高分辨率图片(如8K大图): 细节识别能力更强。

图示:消融实验对比结果。绿色越深,表示原生分辨率方案比基于裁剪的方案优势越大。可以看到在极端宽(AW)和极端高(AH)区域,绿色非常深(优势巨大)。在常规区域(M, B, C, D, E, F),颜色较浅或接近白色(性能相当)。

原生分辨率的意义

  1. 信息零损失: 最大程度保留原始图像的细节、比例和结构信息。这对于识别小字、理解复杂布局、分析精确图像数据至关重要。
  2. 通用性极强: 能优雅地处理任何尺寸、任何宽高比的图像,不再需要为特定场景定制预处理方案。
  3. 计算效率优化: 通过特征压缩和序列打包技术,有效控制了计算成本,使得处理高分辨率图像变得可行。
  4. 迈向真实世界理解: 真实世界中的图片就是尺寸各异、比例不一的。原生分辨率技术让模型能直接“面对”真实数据,是构建更强大、更通用视觉语言模型的关键一步。

应用场景举例:

  • 医学影像: 直接分析整张超长的CT或MRI扫描图,无需切割破坏病灶的连续性。
  • 金融分析: 准确识别超宽屏股票走势图上微小的价格标签和趋势线交叉点。
  • 工业设计: 处理高精度工程图纸,看清每一个标注和尺寸细节。
  • 文档处理: 直接拍照识别竖版合同、古籍或财务报表上的所有文字,排版信息完整保留。
  • 遥感/地图: 解析超大区域的高清卫星图像。

它解决了AI视觉领域一个长期存在的痛点,让模型能像人眼一样更自然地“阅读”和理解千变万化的图像世界。

为什么看似“成熟”的快递外卖小车(低速无人配送车)的自动驾驶,和我们常讨论的家用轿车/乘用车(高速智能驾驶)的自动驾驶,是完全不同的两个概念。

核心问题:为什么快递小车看起来很厉害,但不算真正的“高级”自动驾驶?

两种驾驶场景:

  1. 场景一:小区里送快递的小车

    • 环境: 小区内部道路、校园、商业街人行道。相对封闭,很少有社会车辆(汽车、大货车),主要是行人、自行车、电动车,偶尔有其他低速小车。
    • 速度: 很慢!一般不超过 25-30 公里/小时(比电瓶车还慢)。
    • 路线: 非常固定!每天跑同一条或几条固定的路线,从A点(驿站)到B点(快递柜/楼栋)。
    • 路况复杂度: 较低。障碍物主要是静止的(垃圾桶、石墩)、慢速移动的(行人、宠物)或小型的(自行车)。没有红绿灯(或者固定已知的),没有高速并线、没有复杂交叉路口车流冲突。
    • 目标: 安全到达固定点,别撞到人/东西,能停准位置。
  2. 场景二:你开在高速公路上的家用车

    • 环境: 开放道路!城市主干道、高架桥、高速公路。车流密集,有大货车、小轿车、公交车、摩托车、电瓶车、行人(虽然少但可能有)。
    • 速度: 很快!城市里可能 60-80 公里/小时,高速上 100-120 公里/小时。
    • 路线: 多变!每天可能走不同的路,要处理各种导航路线。
    • 路况复杂度: 极高!要处理:
      • 高速并线、超车。
      • 高速匝道汇入/驶出(车流密集且速度快)。
      • 各种天气(雨雾影响视线)。
      • 突然出现的障碍物(前方事故、掉落物)。
      • 复杂的交通标识和信号灯(可能被遮挡、模糊)。
      • 其他车辆不守规矩的行为(加塞、急刹)。
    • 目标: 安全、高效、舒适地将你和乘客从A点送到B点,处理所有突发情况。

现在,看看快递小车和家用车自动驾驶的区别:

  1. 感知能力(看东西):

    • 快递小车: 像个“近视眼+慢动作观察员”。
      • 主要看近处、低速的东西:行人、自行车、小障碍物。
      • 常用“眼睛”:摄像头(识别物体)、超声波雷达(测近距,防碰撞,类似倒车雷达)。激光雷达可能用,但不需要看很远(几十米够了),分辨率低点(线数少)便宜货也行。
      • 因为慢,有足够时间慢慢“看”清楚周围。
    • 家用车: 必须是“千里眼+鹰眼”。
      • 要看很远(高速上前方150-300米开外的车)、高速移动的目标(旁边车道飞速超车的车)、以及各种细节(模糊的交通标线、远处的小障碍物)。
      • 常用“眼睛”:高清摄像头(高速下稳定识别)、长距高精度激光雷达(必须能看远,300米+,线数高如64线甚至128线,精确构建3D环境)、毫米波雷达(不受天气影响,精确测速测距,尤其在雨雾天)。
      • 因为速度快,信息处理必须极快极准,稍慢一点就可能出事。
  2. 定位与地图(知道自己在哪、路什么样):

    • 快递小车: 像在“熟悉的街区散步”。
      • 路线固定,有很精细的静态地图(知道哪里有门、哪里有快递柜)。
      • 定位精度厘米级就够了(能停准在快递柜前)。
      • 地图更新不需要很频繁(小区路很少大变)。
    • 家用车: 像在“陌生的城市高速开车”。
      • 需要高精度动态地图 (HD Map):包含车道线、坡度、限速、实时交通信息、施工信息等。
      • 定位必须极其精确(分米甚至厘米级)且实时更新。高速上,车速100km/h,1秒就跑近28米!定位差一点,车可能就偏到隔壁车道了。需要融合GPS(RTK/PPP高精度定位)、惯导、车轮信息等。
      • 地图必须能实时更新(路况、施工等)。
  3. 决策与规划(脑子想怎么走):

    • 快递小车: 决策简单,“按固定路线走,避开眼前障碍”。
      • 路径基本固定(A到B)。
      • 遇到障碍(行人挡路),简单决策:停下等或慢慢绕开。
      • 算法相对简单(比如按固定规则避开障碍)。
    • 家用车: 决策极其复杂,“像老司机一样随机应变”。
      • 需要做高速下的复杂决策
        • 什么时候变道超车?安全吗?会不会影响后车?
        • 怎么安全汇入高速主路?前后车间隙够吗?
        • 前方突然有事故,怎么紧急避让或停车?选择哪个逃生路径?
        • 高架桥上车流密集,标线模糊看不清,怎么保持车道?
      • 需要分层精细规划:先做全局路线规划(走哪条高速),再做行为决策(现在该超车还是跟车),然后局部轨迹规划(具体方向盘打多少,油门刹车怎么踩),最后控制执行。整个过程在极短时间内完成。
  4. 控制执行(手脚操作车):

    • 快递小车: “动作慢而精准”。
      • 主要是低速下的启动、停车、小角度转向。
      • 控制周期宽松(50-100毫秒更新一次指令),追求停得准、起步稳。
      • 常用控制方法:经典PID控制(类似恒温器控制)或简单的预测控制(MPC)。
    • 家用车: “动作快而稳如老手”。
      • 高速行驶下,方向盘、油门、刹车的控制必须极其精准、迅速、平顺。一个小失误在高速下会被放大。
      • 控制周期必须很短(10-20毫秒更新一次),反应要快。
      • 需要高级控制算法:复杂的模型预测控制(MPC,能预测未来几步车会怎么走)或结合车辆物理模型(动力学、轮胎力学)的自适应控制,确保高速过弯不飘、紧急刹车不甩尾。
  5. 安全与可靠性(保命设计):

    • 快递小车: “安全重点在别撞人”。
      • 速度慢,动能小,主要防止伤到行人、骑行者。
      • 冗余设计相对简单:双摄像头或摄像头+超声波互为备份。控制器可能双份。
      • 安全标准相对较低(非乘员安全)。
    • 家用车: “安全是重中之重,任何故障都不能致命”。
      • 必须满足最高汽车功能安全标准 ISO 26262 ASIL-D(飞机级安全)。
      • 多重深度冗余:
        • 感知冗余: 激光雷达+毫米波雷达+摄像头,互为备份,一种失效另一种顶上。
        • 计算冗余: 主控芯片 (ECU) 双份甚至三份,一个坏了另一个立刻接管。
        • 执行冗余: 刹车系统有机械+电子双备份;转向系统也有冗余设计。
        • 电源/通信冗余: 关键电源和通信线路都有备份。
      • 目标是:任何一个单一零件故障,系统都不能失效,确保乘客安全。
  6. 其他关键区别:

    • 软件复杂度:
      • 快递小车:软件栈较轻量,基于开源平台(如ROS 2),模块少,针对固定场景优化。
      • 家用车:软件极其复杂庞大,包含感知融合、高精地图、人机交互、安全监控等众多模块,需要高性能车载计算平台和可靠通信网络。
    • 成本:
      • 快递小车:成本敏感,用几千到万元级的传感器和工业级硬件。目标是量产铺开。
      • 家用车:传感器(尤其激光雷达)、芯片算力平台成本极高,一套高级系统可能数万甚至十几万人民币
    • 法规与监管:
      • 快递小车:法规较宽松,通常需要远程监控或现场安全员,处置流程简单。
      • 家用车:法规极其严格。L2要求驾驶员随时准备接管(有驾驶员监控系统DMS)。L3/L4对驾驶员状态监控、接管流程、测试认证要求严苛得多。
    • 迭代速度:
      • 快递小车:在固定场景优化,软件和地图更新相对灵活,可以OTA升级。
      • 家用车:每次软件升级都要经过极其严格的测试、验证,甚至需要重新认证,更新慢但求稳。

结论:为什么说快递小车不算真正的“高级”自动驾驶?

  • 场景限定: 它们只在低速、简单、固定路线的半封闭环境中运行。这就像在一个精心设计、障碍物不多的儿童游乐场里开玩具车,相对容易。
  • 能力局限: 它们的感知、决策、控制能力都是为了适应低速简单场景而设计的,无法应对开放道路上的高速、高动态、高度复杂和不可预测的交通环境。
  • 安全等级: 它们的安全设计标准远低于载人的乘用车要求。乘用车的自动驾驶系统需要达到航空级的功能安全多重冗余
  • 责任归属: 快递小车出问题(低速碰撞),责任相对清晰,后果通常不致命。乘用车的自动驾驶系统如果在高速上出错,后果不堪设想,责任归属是核心问题(这也是车企对宣称高级别自动驾驶非常谨慎的原因)。

简单说:

  • 快递外卖小车:特定场景下的低速、有限自动驾驶。它们很酷,解决了“最后一公里”配送问题,但技术难度和挑战远低于开放道路的乘用车自动驾驶。它们更像是“高级遥控车”。
  • 家用乘用车自动驾驶: 目标是实现开放道路、全场景、高速下的安全自主驾驶,技术难度呈指数级增长,是自动驾驶技术的“珠穆朗玛峰”。我们目前大规模量产的乘用车自动驾驶技术,确实还主要处于 L2(辅助驾驶) 级别,需要驾驶员监督。达到真正的 L4(高度自动化) 并安全应用于所有场景,仍需技术突破和时间验证。

所以,下次看到小区里灵活避让行人的快递小车,可以赞赏它的实用性和在特定场景下的能力,但要理解它和能让你的家用车在高速上、暴雨天、复杂车流中完全自主、安全地把你送回家的那种“真·自动驾驶”,在技术层面完全不是一个量级的事情。

具身智能(让机器人在物理世界中行动)中三类模型:VLM(视觉语言模型)VLA(视觉语言动作模型)VGM(视频生成运动模型) 的区别和联系。

核心目标: 让机器人能“看懂”(视觉)、“听懂”(语言)、“想好怎么做”(决策)、“动手做”(动作)。

VLM (视觉语言模型):机器人的“眼睛”和“大脑”(理解层)

  • 它能做什么?
    • 看图说话: 看到一张照片或视频,能描述里面有什么(“桌子上有一个红色的苹果”)。
    • 回答问题: 根据看到的图像,回答关于图像的问题(“苹果在桌子的哪边?” -> “左边”)。
    • 理解指令: 理解你用语言下达的、和视觉相关的命令(“请指出图片中最小的物体”)。
  • 它是怎么工作的?(简化版流程)
    1. 看(视觉编码): 模型内部有个“视觉处理器”(通常是 Vision Transformer - ViT)。它把输入的图像切成很多小块(比如 14x14 像素的小方格),把每个小块转换成代表其内容的数字(特征向量)。想象一下,它给图像的每个区域都贴了个包含信息的“数字标签”。
    2. 听(文本编码): 同时,模型内部还有个“语言处理器”(通常是类似 GPT 的核心)。它把你输入的文字指令(如“拿起那个杯子”)也转换成一系列代表意义的数字(文本特征向量)。
    3. 想(多模态融合): 这些代表图像小块和文字的数字标签,被一起送入一个叫“多模态 Transformer”的核心大脑区域。在这里,图像信息和文字信息相互交流、对比、关联。大脑努力理解:文字指令“拿起那个杯子”指的是图像中的哪个物体?它在什么位置?
    4. 说(语言输出): 最终,这个融合了视觉和语言信息的大脑,通过它的“语言生成器”部分,输出一段文字作为结果。这可能是对图像的描述,也可能是对问题的答案,或者是理解指令后的一个文字建议(比如“杯子在桌子左上角”)。
  • 关键限制:
    • 只动口,不动手! VLM 的输出是文字或语言。它只能告诉你有杯子在左上角,但它无法直接控制机器人的手臂去抓那个杯子。它是个高级的“观察员”和“分析师”,不是“执行者”。
    • 需要下游模块: 要让机器人实际动起来,VLM 的输出(文字建议)需要传递给另一个专门的“控制器”模块,这个控制器再想办法去执行(比如用传统控制算法规划路径去抓杯子)。这个过程可能慢,也可能丢失信息。
  • 类比: VLM 就像是机器人的军师。军师站在高处观察战场(看图像),听取主公的指令(听语言),分析局势(融合信息),然后给出建议(输出文字报告:“敌将在东侧山坡,可派骑兵包抄”)。但军师自己不会骑马冲锋打仗。

VLA (视觉语言动作模型):机器人的“眼睛”、“大脑”和“小脑”(理解+基础执行层)

  • 它能做什么?

    • 继承 VLM 的所有能力(看图、理解语言、回答问题)。
    • 最关键的新能力: 直接输出控制机器人的动作指令! 比如,直接告诉机器人各个关节应该转多少度,或者轮子应该怎么转。
  • 它是怎么工作的?(核心是“动作生成”)
    VLA 的核心目标是把 VLM 的“理解”直接转换成“动作”。主要有两种主流架构:

    1. 单体式 (All-in-One Transformer):

    • 思路: 把“动作”看作是另一种特殊的“语言”。就像模型生成文字是一个词一个词蹦出来一样,让它生成动作也是一个指令一个指令(比如“关节1:+5度”)地蹦出来。
    • 流程: 和 VLM 流程类似(看图、听指令、融合信息),但最后输出层不再是生成文字,而是生成一串代表动作的离散数字(动作Token)。这些数字再被解码成具体的、连续的机器人控制指令(如电机转速、关节角度)。
    • 优点: 架构相对统一、简洁,理论上端到端训练效果可能好。
    • 缺点: 动作指令往往需要非常高频地更新(比如机器人手臂控制需要每秒更新 50-100 次指令)。像生成文字那样一个Token一个Token生成,速度可能跟不上,容易产生延迟,在高维(多个关节)复杂动作上效果可能打折扣。想象军师直接对着士兵喊每个具体的动作指令(“左腿迈半步!右臂抬30度!”),效率可能不高。

    2. 分层式 / 混合专家式 (Hierarchical / Mixture of Experts):

    • 思路: 认识到“理解复杂指令”和“生成高速精细动作”是两种不同的需求,需要一个“慢思考”的高层和一个“快反应”的低层。这借鉴了人类的“双系统理论”。
    • 流程:
      1. 高层“大脑”(慢,~10Hz): 通常就是一个强大的 VLM(如 InternVL, Qwen-VL)。它负责“看懂”图像(“桌上有红杯子和绿苹果”)、“听懂”指令(“把红杯子拿到我面前”),并进行复杂的语义理解和初步规划(“红杯子在左边,需要先移动手臂过去,再调整手爪抓握”)。它输出的是一个高级的、抽象的动作意图或计划。这个输出不再是文字,而是一个紧凑的隐变量(Latent Vector) 或者一组中间动作Token。这个意图比较“粗”。
      2. 中层“翻译官”(可选): 有时会有一个模块负责把高层的抽象意图(隐变量/中间Token)转换成更接近底层执行的指令。
      3. 底层“小脑”(快,~100-200Hz): 这是一个专门的、更小更快的模型(通常也是 Transformer 变体)。它高频运行,接收高层传来的意图/指令,并结合机器人当前的实时状态(关节角度、传感器反馈等),输出精确、平滑、高频的连续动作指令(具体的关节角度、速度等)。它专注于把高层的粗指令“翻译”成精细、流畅、实时的肌肉(电机)控制。它可能使用扩散模型(Diffusion)流匹配(Flow Matching) 等技术来生成高质量的连续动作序列。
    • 优点:
      • 速度与精度兼顾: 高层可以慢慢思考复杂问题,底层专注高速执行。解决了单体式延迟问题。
      • 泛化性好: 高层强大的 VLM 带来了对未见过的物体、场景、指令的理解能力(零样本/小样本泛化)。底层可以专门优化控制性能。
      • 模块化: 可以分别改进高层(换更强 VLM)或底层(换更好控制器)。
    • 缺点: 架构更复杂,需要设计好高层和底层之间的接口(隐变量/Token)和通信机制。
    • 代表案例: Figure AI 的 Helix,智元机器人的 GO-1 (ViLLA架构),清华的 HiRT/ERA-42
  • 类比: VLA 就像是军师(高层VLM)身边带了一个传令官/副将(底层控制器)。军师观察分析后,给出一个战略意图(“派一队兵夺取东侧山坡”,这是隐变量/中间Token)。副将(底层)精通战术,立刻把这个意图分解成具体的、实时的作战指令(“第一小队向左迂回!第二小队正面佯攻!弓箭手准备齐射!”),并高频地指挥士兵(机器人关节/轮子)执行。军师管大局(慢思考),副将管细节和速度(快执行)。

VGM (视频生成运动模型):机器人的“眼睛”、“大脑”、“小脑” + “想象力”(理解+执行+预测层)

  • 它能做什么?

    • 继承 VLA 的能力(看图、理解语言、输出动作)。
    • 最关键的新能力: 在决定做什么动作之前,它能先在“脑子里”(模型内部)模拟/预测执行动作后会发生什么(生成未来几秒的视频片段)。基于这个“预测”,它可以优化自己的动作决策。
  • 它是怎么工作的?(核心是“世界模型”+“预测”)
    VGM 的核心思想是赋予机器人预测未来的能力,让它的决策更“有远见”,避免短视错误。

    核心组件:

    1. 世界模型 / 视频生成器:

      • 这是 VGM 的核心“想象力引擎”。它是一个经过特殊训练的模型,目标是:输入当前的图像(或图像序列)和一个假设的(或计划中的)动作序列,它能预测并输出接下来几秒钟会发生什么——也就是生成未来几帧的图像或视频。
      • 训练数据: 通常在海量的互联网视频上进行预训练(比如几千万段各类日常、工业、人类操作等视频)。这让模型学习世界的物理规律(东西会掉下来、水会流、推桌子会动等)和动态变化。
      • 技术: 常用类似 AI 生成视频的技术,如视频预测 Transformer视频扩散模型。为了效率,通常不是直接预测高清像素,而是预测图像在某种压缩空间(如 VQ-VAE 的离散编码或低维特征)里的表示。
    2. 动作策略生成器:

      • 这个部分负责最终输出控制机器人的动作指令。它如何利用“想象力”呢?有两种主要方式:
        • 方式一(隐式融合): 视频预测和动作预测由同一个大模型完成。模型在内部生成未来帧的预测(可能不显式输出),并将这些预测信息融入到动作决策中。模型在做动作选择时,会“参考”自己内部预测的后果。例子:ByteDance 的 GR-2。 它在海量视频上预训练后,在少量真实机器人数据上微调,模型在输出动作时,内部隐式地利用了其对世界动态的理解。
        • 方式二(显式规划): 模型先生成一个理想的未来视频片段(比如演示如何完美地抓取杯子不倒水)。然后,再利用其他方法(比如计算机视觉算法分析这个视频中物体的运动轨迹,或者另一个模型学习模仿这个视频里的动作)来生成最终机器人要执行的具体动作序列。例子: 一些工作让 VGM 生成人类操作视频,然后让机器人学习模仿视频里的动作。
      • 无论哪种方式,最终都需要将“预测”或“理想演示”转换成精确的、物理可执行的动作指令,可能还需要结合传统控制算法进行优化(满足关节力矩限制、保持平衡等)。
  • 优点:

    • 长远眼光: 能预测动作的后果,避免“捡了芝麻丢了西瓜”或“动作做完才发现闯祸了”。比如抓易碎品会预测到“握力太大可能会捏碎”,从而自动调整力度;或者在移动时预测到“再往前会撞到障碍物”,提前转向。
    • 更强泛化: 通过在大量视频数据上学习世界的物理规则,能更好地应对前所未见的新物体、新场景和新任务(“零样本”或“小样本”能力更强)。
    • 降低试错成本: 可以在“脑子里”模拟演练,减少在现实中因错误动作造成的损坏或时间浪费。
  • 缺点:

    • 极度复杂: 整合视频预测大大增加了模型设计和训练的难度。
    • 算力怪兽: 训练需要海量视频数据和巨大计算资源(GR-2 用了 500 亿 Token 的视频数据!)。实时生成预测视频对算力要求也很高。
    • 预测不准的风险: 如果世界模型预测错了(比如预测杯子没倒但实际会倒),基于错误预测的动作会导致更糟糕的结果。预测的准确性是关键瓶颈。
    • 实时性挑战: 在需要快速反应的场景下,先生成几秒视频再做决策,可能时间来不及。
  • 类比: VGM 就像是给军师(VLA)配备了一个沙盘推演工具(世界模型)。在决定派兵(执行动作)之前,军师先在沙盘上(模型内部)推演一下:如果派一队兵去东侧山坡(执行某个动作),敌人可能会怎么反应?我们能不能拿下?会不会损失惨重?基于沙盘推演的结果(预测视频),军师再优化他的派兵策略(最终动作指令),然后由副将(底层控制器)去执行。它让决策更有预见性。

  1. VLM 是基础: 提供了核心的视觉和语言理解能力。它是 VLA 和 VGM 的重要组成部分(通常是它们的高层或感知模块)。
  2. VLA 是核心执行者: 在理解的基础上,增加了直接生成动作的能力,是让机器人“动起来”的关键技术。分层式 VLA 是目前的主流和实用化方向(如 Helix, GO-1)。
  3. VGM 是增强版决策者: 在 VLA 的基础上,增加了利用“想象力”(世界模型预测未来)来优化决策的能力。它代表了更高级、更具远见的决策方式,但目前技术挑战大,处于前沿探索阶段。
  4. 层级递进:
    • VLM: 我看到了什么?我听到了什么?我理解了什么? -> 输出语言/认知
    • VLA: 基于看到的和听到的,我现在具体该怎么做? -> 输出动作指令
    • VGM: 如果我这么做(动作A),接下来可能会发生什么(预测)?基于这个预测,我应该选择哪个动作(A还是B)最好? -> 利用预测优化动作输出
  • VLM: 一个坐在指挥室里的分析师,看着监控屏幕(视觉)和听着对讲机(语言),写报告(输出文字)告诉你发生了什么。
  • VLA: 一个在前线的指挥官(分析师升级版),看着战场(视觉),听着上级命令(语言),直接对着部队(机器人)喊命令(输出动作):“一队向左进攻!二队掩护!”
  • VGM: 一个更老练的前线指挥官(VLA升级版),他在下命令前,会先拿出作战沙盘(世界模型),模拟一下命令执行后的战场变化(预测视频)。如果沙盘推演发现“一队向左进攻会陷入埋伏”,他就会改变命令:“一队先佯攻,二队绕后偷袭!”(优化动作输出),然后再下达最终命令。

李飞飞最新NoPriors专访

World Labs 是谁?做什么的?

  1. 创始人: 著名AI专家、斯坦福大学教授 李飞飞
  2. 公司目标: 开发具备 “空间智能” 的下一代AI系统。简单说,就是让AI能像人类一样理解、重建、操作甚至创造我们生活的三维物理世界(以及数字世界)。
  3. 背景: 公司刚成立不久(2024年),但已经融到 2.3亿美元,估值超过 10亿美元(成为“独角兽”)。投资方都是顶级大厂(英伟达、AMD、英特尔)和著名风投(a16z等),说明业界非常看好这个方向。
  4. 技术基础: 李飞飞联合了多位顶尖专家:
    • Ben Mildenhall: 提出 NeRF(神经辐射场) 技术的关键人物(后面会解释)。
    • Christopher: 在高效 三维建模(volumetric 3D) 方面有开创性研究。
    • Justin Johnson:GAN(生成对抗网络) 应用于图像风格迁移的专家。
    • 核心: 把分散在学术界的三维视觉、图形学、AI建模技术整合起来,合力攻关“世界模型”。

核心概念:什么是“空间智能”和“世界模型”?
1. 空间智能:比语言更古老的智能

  • 人类经验: 李飞飞分享了自己的真实经历:她曾因角膜受伤短暂失去立体视觉(三维感知)。结果?
    • 不敢开车(判断不了车距)。
    • 走在熟悉的街上都觉得困难(空间感混乱)。
  • 核心观点:
    • 我们人类能自如行动,最根本依赖的不是语言,而是 对三维空间的感知和理解能力(空间智能)。
    • 这种能力在进化上比语言古老得多(昆虫都有基本空间感)。
    • 语言是对世界的“有损压缩”描述(用文字“桌子”代替了真实的、有形状、材质、位置的物理实体)。

2. 世界模型:AI理解物理世界的钥匙

  • 当前AI的局限: 现在最火的大语言模型(LLM,如ChatGPT)主要处理文字信息。它们能聊天、写诗、编程,但缺乏对物理世界的直观理解
  • Martin Casado 的比喻: 蒙住一个人的眼睛,只靠语言描述一个陌生房间,然后让他去里面找东西或做事——几乎不可能!但一旦睁开眼,大脑瞬间重建空间模型,行动自如。LLM就像那个被蒙眼的人。
  • 世界模型的目标: 让AI拥有类似人睁眼后的能力:
    1. 理解三维结构: 看到一张桌子照片,能“脑补”出它的背面、内部结构、材质,甚至它在房间里的位置和周围环境。
    2. 理解物理规律: 知道球扔出去会下落,玻璃杯易碎,推桌子会移动。
    3. 重建与生成: 能根据有限信息(如几张照片或一段描述)重建出完整的、逼真的三维场景
    4. 操作与交互: 能在理解的基础上,预测动作后果(如“如果我推这个箱子,它会倒吗?”),并规划如何操作(如机器人如何抓取一个形状复杂的物体)。

简单总结:

  • 空间智能: 是感知和理解三维世界(物理的或数字的)的能力。
  • 世界模型: 是AI内部用来表示(Represent)推理(Reason) 这个三维世界及其物理规律的“心智地图”或“内部模拟器”。

为什么李飞飞认为“世界模型”比LLM更重要?

  1. 智能的本质: 真正的智能不能脱离对物理世界的理解。语言只是描述世界的工具之一,世界本身是由空间、物体、运动和物理定律构成的。AI要真正“智能”,必须能处理这些原始信息,而不是只处理经过语言压缩后的二手信息。
  2. 解决机器人和具身智能的瓶颈: 现在的机器人为什么还不够聪明灵活?核心原因就是缺乏对三维物理世界的深刻理解(世界模型)。没有它,机器人就像蒙眼人,动作笨拙、无法适应新环境、容易出错。
  3. 超越机器人的广泛应用: World Labs 的目标远不止于做更好的机器人:
    • 设计 & 建筑: AI可以帮你设计房子、家具,生成逼真的三维模型和效果图,甚至模拟光照、人流。
    • 电影 & 游戏: 自动生成复杂的电影特效场景、游戏关卡和角色动画。
    • 虚拟试衣 & 购物: 上传一张你的照片,AI就能生成你穿不同衣服在真实场景中的三维效果。
    • 工业模拟: 在虚拟空间中测试产品设计、工厂布局、物流方案。
    • 数字孪生: 为现实世界(如城市、工厂)创建精确的、可交互的数字副本。
    • “数字宇宙”创造: 李飞飞提到“多重宇宙”的概念——人类可以创造服务于不同目的的虚拟世界(用于社交、教育、实验、娱乐等),而AI是构建和理解这些世界的关键。

技术关键:他们凭什么能做?

  1. 技术积累迎来临界点:
    • NeRF(神经辐射场): Ben Mildenhall 的关键技术。它用神经网络从几张2D照片就能重建出极其逼真的3D场景(像全息投影一样)。这是构建世界模型的核心基石技术
    • 高效3D表示(Volumetric 3D): Christopher 的工作让复杂3D模型的计算和存储更高效。
    • 生成模型(GAN/Diffusion): Justin Johnson 等的贡献,让AI不仅能理解3D,还能生成新的3D内容。
    • AI模型进步: 大模型(Transformer等)在理解和生成方面的能力为融合多模态(图像、3D、物理)信息提供了可能。
  2. 需要“全栈”工程能力: 构建世界模型不仅是AI算法问题,还需要强大的图形渲染技术、物理引擎、海量计算资源(GPU)、系统级优化。这就是为什么李飞飞认为必须创办公司(World Labs)而不是只在大学做研究——工业级的投入和跨界协作(AI专家 + 图形学专家 + 系统工程师)必不可少。

哲学意义:倒着走进化之路

  • Martin Casado 的观点: 人类大脑的进化路径是:空间感知(古老)-> 视觉 -> 高级认知 -> 语言(最晚)。今天的AI发展却是:先搞定了语言(LLM)-> 现在才回头补空间智能(世界模型)。我们在“倒着走进化之路”。
  • 李飞飞的结论: “真正的世界,不是文本构成的。” LLM 是AI发展的重要一步,但世界模型才是让AI真正理解并构建我们(物理和数字)世界的钥匙。它不仅能提升机器能力,还可能为人类的科学(如材料设计、药物发现)和艺术(设计、创作)开辟全新道路

为什么World Labs备受瞩目?

  1. 方向前瞻: 李飞飞团队抓住了AI发展的下一个核心瓶颈和机遇——空间智能与世界模型,这被认为是实现真正通用人工智能(AGI)和具身智能的关键。
  2. 技术深厚: 集结了NeRF、3D重建、生成式AI等领域的顶尖人才和核心技术。
  3. 应用广泛: 潜力远超机器人,将深刻影响设计、娱乐、制造、城市管理、科学探索等几乎所有需要处理三维空间的领域。
  4. 时机成熟: 相关技术(NeRF、大模型、算力)发展到了一定临界点,具备产业化可能。
  5. 大佬背书: 李飞飞的学术地位和号召力,加上顶级资本和产业巨头(英伟达等)的重金押注,证明了其价值。

简单来说: World Labs 要做的事,就是给AI装上“眼睛”和“空间大脑”,让它能像人类一样理解、重建、操作和创造我们生活的三维世界(无论是现实的还是虚拟的)。这被认为是比让AI学会聊天、写诗(LLM)更基础、更重要的一步。李飞飞坚信,这才是通向真正智能的钥匙。

核心问题:为什么李飞飞要创办 World Labs?

“AI 的下一个里程碑不是更强的聊天能力,而是让机器真正理解我们的三维世界。”
—— 李飞飞的核心观点

1. 个人经历触发思考
李飞飞曾因角膜受伤 暂时失去立体视觉(无法感知物体远近和空间关系),这导致她:

  • 不敢开车(判断不了车距)
  • 走在熟悉街道也感到困难
    这段经历让她深刻认识到:三维空间感知是人类智能的基石,比语言能力更古老、更基础。

2. 当前AI的致命缺陷

  • 大语言模型(如ChatGPT) 只懂处理文字,像“闭眼听人描述世界”:
    • 能回答“桌子在房间左侧”,但无法真正理解桌子的三维结构、材质、物理属性。
    • 无法预测“推倒桌子会发生什么”。
  • 机器人普遍笨拙 的根本原因:缺乏对物理世界的深度理解(例如抓杯子时不知道用多大力才不捏碎)。

3. 技术临界点已到
近年三大技术突破让“空间智能AI”成为可能:

  • NeRF(神经辐射场):用几张照片就能重建逼真3D场景(World Labs 联合创始人 Ben Mildenhall 是该技术先驱)。

    例:手机拍房间一圈 → AI自动生成可360°查看的3D模型

  • 高效3D建模技术:将复杂3D物体压缩成轻量数据(联合创始人 Christopher 的贡献)。
  • 生成式AI(如GAN、扩散模型):不仅能理解3D,还能创造新3D内容。

什么是“空间智能”和“世界模型”?

1. 空间智能 = 三维世界的“生存本能”

  • 定义:理解、推理、操作和生成三维世界的能力。
  • 为什么比语言更基础?
    • 进化角度:昆虫都有基础空间感(躲避天敌、找食物),而语言是人类独有的新能力。
    • 认知角度:婴儿先学会爬行探索空间,后学会说话。
  • 对人类的意义:开车、接球、避开障碍物… 所有日常行动都依赖空间智能。

2. 世界模型 = AI的“3D大脑”

  • 目标:让AI拥有类似人类的空间感知系统:
    • 输入:图像/视频/传感器数据
    • 输出
      1. 重建环境三维结构(例:看到桌腿就能脑补全貌)
      2. 理解物理规律(球会滚落、玻璃易碎)
      3. 预测动作后果(“如果推这个箱子,它会倒吗?”)
      4. 生成新3D内容(设计新车/虚拟建筑)

类比说明

  • 当前AI(LLM) → 像蒙眼人听语言指令行动(容易出错)
  • World Labs目标 → 给AI装上“眼睛+空间大脑”

技术挑战:为什么这事超级难?

1. 数据难题

  • 语言模型 有海量互联网文本训练(维基百科、社交媒体)。
  • 空间模型 缺高质量3D数据:
    • 现实世界是3D的,但网上多是2D照片/视频。
    • 解决方案:
      • 用NeRF从2D照片反推3D结构
      • 合成数据:用游戏引擎生成虚拟3D场景
      • 收集触觉数据(抓握力度、材质反馈)

2. 模型复杂性
需融合四类技术:

  1. 计算机视觉(看懂物体)
  2. 计算机图形学(生成逼真3D)
  3. 物理引擎(模拟重力/碰撞)
  4. 生成式AI(创造新内容)

李飞飞比喻:“这就像造飞机,需要空气动力学+材料学+发动机专家协作。”

3. 算力黑洞

  • 处理3D数据比文本复杂千倍
  • 需专用硬件(英伟达等投资者提供支持)

1. 革命性应用

领域传统方式World Labs 解决方案
产品设计耗时数月手工建模AI生成3D原型,实时修改(如设计新车)
电影/游戏特效团队手工制作场景输入文本 → 自动生成3D场景(“未来都市下雨”)
医疗医生看2D扫描图想象病灶AI重建3D器官模型,辅助手术规划
机器人预编程固定动作,无法适应新环境实时理解空间,自主决策(如家庭助老机器人)
虚拟世界游戏公司手工搭建场景AI生成整个宇宙(教育/社交/实验)

案例

  • 设计师 对AI说:“设计一把符合人体工学的椅子” → AI生成3D模型+支撑力模拟
  • 医生 查看患者肺部CT → AI重建3D模型标记肿瘤位置
  • 普通人 用手机拍房间 → 生成虚拟装修方案

2. 李飞飞的终极愿景

“人类将首次生活在‘多重宇宙’中:

  • 一个宇宙训练机器人技能
  • 一个宇宙用于癌症药物模拟
  • 一个宇宙让老人虚拟旅行…”
    —— 空间智能将打破物理世界限制

1. 李飞飞

  • 创建 ImageNet(1500万标注图像数据集),引发AI革命
  • 培养众多AI领袖(如OpenAI科学家Andrej Karpathy)

2. 团队梦幻组合

联合创始人技术贡献意义
Ben MildenhallNeRF(3D重建核心技术)从照片生成3D的“钥匙”
Christopher高效3D建模(Volumetric 3D)让复杂3D数据可存储、计算
Justin JohnsonGAN图像生成让AI从理解到“创造”3D

3. 资本强力背书

  • 英伟达、AMD、英特尔联合投资 → 提供顶级算力
  • 估值3个月破10亿美金 → 市场认可方向正确

深层思考:AI的未来是“空间优先”
1. 倒转的进化之路

  • 动物进化:空间感知(5亿年前)→ 语言(20万年前)
  • AI发展:先解决语言(LLM)→ 现在补空间智能

    李飞飞:“没有空间理解的AI是不完整的。”

2. 对人类的启示

  • 创造力依赖空间思维:爱因斯坦想象相对论时需在脑中构建三维时空模型。
  • AI将扩展人类能力:设计师用AI快速验证创意,医生用AI模拟手术。

3. 警惕与机遇

  • 风险:虚拟世界可能让人沉迷,需坚守“以人为本”
  • 希望:解决医疗资源短缺、老龄化照护等现实问题

World Labs 要做AI界的“空间觉醒者”——让机器从“读懂文字”进化到“理解并创造我们的三维世界”,这将是比ChatGPT更深远的革命。

http://www.lryc.cn/news/609478.html

相关文章:

  • 华为OD机考2025C卷 - 最小矩阵宽度(Java Python JS C++ C )
  • vim 组件 使用pysocket进行sock连接
  • 408数据结构排序部分知识的复盘:从原理到辨析的系统化梳理
  • 抗辐照DCDC与MCU在核环境监测设备中的集成应用
  • 远程测控终端RTU:工业物联的“神经末梢”与远程操控核心
  • CVPR论文解析:告别Janus问题,text-to-3D更一致!
  • 5G专网与SD-WAN技术融合:某饮料智能工厂网络架构深度解析
  • Planner 5D v2.29.0 安卓高级解锁版,手机3D家装,全套家具免费
  • 【基于WAF的Web安全测试:绕过Cloudflare/Aliyun防护策略】
  • iOS混淆工具有哪些?功能测试与质量保障兼顾的混淆策略
  • SpringBoot3.x入门到精通系列:3.2 整合 RabbitMQ 详解
  • mac 锁屏不断网 2025
  • Java基础-斗地主游戏
  • 亚马逊撤离Google购物广告:重构流量生态的战略博弈
  • 编译 Paddle 遇到 flashattnv3 段错误问题解决
  • 37. line-height: 1.2 与 line-height: 120% 的区别
  • YAML文件
  • Vue Router快速入门
  • 高精度实战:YOLOv11交叉口目标行为全透视——轨迹追踪×热力图×滞留分析(附完整代码)
  • 深度学习TR3周:Pytorch复现Transformer
  • 第三阶段—8天Python从入门到精通【itheima】-143节(pyspark实战——数据计算——flatmap方法)
  • 大型语言模型落地应用全景指南:微调、提示工程、多模态与企业级解决方案
  • Perl 面向对象编程深入解析
  • 如何计算卷积层的计算量?从参数到公式的详细推导
  • PPT自动化 python-pptx - 11 : 备注页 (Notes Slides)
  • JUCE VST AI 开源
  • 进程生命周期管理:从创建到终止的完整逻辑
  • 解锁高并发LLM推理:动态批处理、令牌流和使用vLLM的KV缓存秘密
  • Oracle ASH的手册
  • Git简易教程