当前位置: 首页 > news >正文

大模型小模型选型手册:开源闭源、国内国外全方位对比

市面上有哪些模型,国内与国外,开源和闭源,热门的 友好的,哪些是小模型 适合个人本地学习练习用的,按照这些维度或者更多的维度 汇总发我。我需要对 大模型和小模型 有一个总体的了解

基于最新的搜索结果,我为你整理一个全面的大模型和小模型汇总,按照你提到的各个维度来分类:

🌍 国内外模型分布

国外主流模型

闭源商业模型:

  • OpenAI系列:GPT-4o, GPT-4.5-Preview, o1-preview, o1-mini
  • Anthropic系列:Claude 3.5 Sonnet, Claude 3.7 Sonnet
  • Google系列:Gemini 2.0 Pro, Gemini 1.5 Pro, Gemini 2.5 Pro
  • Meta系列:部分闭源版本

开源模型:

  • Meta Llama系列:Llama 3, 3.1, 3.2, 3.3 (8B-405B)
  • Mistral AI系列:Mistral 7B, Mixtral 8x7B/8x22B, Mistral Large
  • Google开源:Gemma 2B/7B, Phi-3, Phi-4
  • 微软:Phi系列 (2.7B-4B)

国内主流模型

主要厂商分布:

  • 阿里巴巴:Qwen系列 (0.5B-72B), QwQ-32B
  • 深度求索:DeepSeek系列 (1B-671B), DeepSeek-R1
  • 字节跳动:Doubao-1.5-pro
  • 腾讯:Hunyuan-turbos
  • 智谱AI:GLM系列, GLM-Zero
  • 百度:ERNIE-4.0系列
  • 月之暗面:Kimi系列
  • 零一万物:Yi系列
  • 360:360智脑系列

🔓 开源 vs 闭源对比

顶级开源模型 (2024-2025)

模型名称参数量特点适用场景
DeepSeek-R1671B推理能力强,成本效益高复杂推理、编程
Qwen2.5-72B72B超越Llama3.1-405B性能通用任务、中文处理
Llama 3.1-405B405B最大开源模型企业级应用
Mixtral 8x22B141B (39B激活)MoE架构,效率高多语言、编程

顶级闭源模型

模型名称开发商Elo评分特点
o3-miniOpenAI76.01最新推理模型
DeepSeek-R1深度求索70.33开源推理之王
Claude 3.7 SonnetAnthropic68.02对话体验佳
GPT-4.5-PreviewOpenAI67.46综合能力强

📱 小模型推荐 (适合个人本地学习)

超轻量模型 (1B-3B)

最适合CPU运行:

  • Qwen2.5-0.5B/1.5B/3B - 阿里巴巴,中文友好
  • Llama 3.2-1B/3B - Meta,移动端优化
  • Gemma-2B - Google,1.4GB大小
  • DeepSeek-R1-Distill-1.5B - 深度求索,推理能力强
  • Phi-2 (2.7B) - 微软,性能优异

轻量模型 (7B级别)

推荐配置:8-16GB显存

  • Qwen2.5-7B - 编程数学能力强 (HumanEval 85+, MATH 80+)
  • Llama 3.1-8B - 128K上下文,通用性好
  • Mistral-7B - 推理能力出色
  • DeepSeek-Coder-7B - 专业编程模型
  • Gemma-7B - 4.8GB大小,平衡性好

中等模型 (13B-32B)

推荐配置:16-32GB显存

  • Qwen2.5-14B/32B - 性能接近大模型
  • DeepSeek-V3 (37B激活) - MoE架构,效率高
  • Mixtral 8x7B - 47B总参数,13B激活
  • Llama 3.2-11B - 视觉语言模型

🔥 热门友好模型推荐

最受欢迎开源模型 (按下载量)

  1. Llama系列 - Meta,生态最完善
  2. Qwen系列 - 阿里巴巴,中文最佳
  3. Mistral系列 - 欧洲之光,商业友好
  4. DeepSeek系列 - 性价比之王
  5. Gemma系列 - Google出品,质量保证

新手最友好模型

本地部署简单:

  • Ollama支持的模型:一键部署
    • ollama run llama3 (8B, 4.7GB)
    • ollama run qwen:7b
    • ollama run gemma:2b (1.4GB)
    • ollama run deepseek-coder:7b

💻 本地部署硬件需求指南

显存需求计算公式

  • 无量化:显存(GB) = 参数量(B) × 2
  • 4bit量化:显存(GB) = 参数量(B) ÷ 2
  • 8bit量化:显存(GB) = 参数量(B) × 1

硬件配置推荐

显存大小推荐模型量化方式
4-8GB1B-3B模型无需量化
8-16GB7B模型4bit量化
16-24GB13B-14B模型4bit量化
24-32GB32B模型4bit量化
40GB+70B+模型4bit量化

CPU运行友好模型

  • Phi-2 (2.7B) - CPU友好,性能不错
  • TinyLlama (1.1B) - 专为资源受限设备设计
  • Qwen2.5-0.5B - 超轻量,CPU可流畅运行

🚀 快速开始推荐

零基础入门路线

  1. Ollama + Qwen2.5-7B - 最佳中文体验
  2. Ollama + Llama 3.1-8B - 最佳通用体验
  3. Ollama + Gemma-2B - 最低硬件要求
  4. Ollama + DeepSeek-Coder-7B - 编程学习专用

进阶路线

  1. 本地部署Qwen2.5-32B - 接近商业模型体验
  2. 尝试DeepSeek-R1 - 体验开源推理能力
  3. 部署专业模型 - 如数学专用、代码专用等

📊 2024-2025最新排名总结

综合能力TOP5:

  1. DeepSeek-R1 (开源推理之王)
  2. QwQ-32B (阿里巴巴推理模型)
  3. Qwen2.5-72B (综合性能优异)
  4. Llama 3.1-405B (开源最大模型)
  5. Mixtral 8x22B (MoE架构典范)

个人学习TOP5:

  1. Qwen2.5-7B (中文+编程双强)
  2. Llama 3.1-8B (生态完善)
  3. DeepSeek-Coder-7B (编程专业)
  4. Gemma-7B (Google品质)
  5. Mistral-7B (推理优秀)

这个汇总覆盖了从超轻量CPU模型到大型GPU模型的完整谱系,你可以根据自己的硬件条件和学习目标选择合适的模型开始实践!

http://www.lryc.cn/news/576756.html

相关文章:

  • AtCoder Beginner Contest 412
  • 2025.6GESP四级(编程题详解)
  • 基于云的平板挠度模拟:动画与建模-AI云计算数值分析和代码验证
  • 鸿蒙5:自定义构建函数
  • 提示技术系列——生成知识提示
  • HTTP中常见的Content-Type
  • 【HuggingFace】模型选型策略指南(读懂config.json)
  • RAG工作原理
  • 什么是MPC(多方安全计算,Multi-Party Computation)
  • LeetCode Hot 100 最大子数组和
  • HarmonyOS NEXT仓颉开发语言实战案例:小而美的旅行App
  • NLP文本增强——随机删除
  • HarmonyOS NEXT仓颉开发语言实战案例:健身App
  • 野生动物检测数据集介绍-5,138张图片 野生动物保护监测 智能狩猎相机系统 生态研究与调查
  • rabbitmq springboot 有哪些配置参数
  • ONLYOFFICE 协作空间 企业版使用秘籍-8.使用虚拟数据房间,处理机密文档更安全
  • 生物实验室安全、化学品安全
  • MATLAB变音系统设计:声音特征变换(男声、女声、童声互转)
  • fvcom 网格文件grd制作
  • 日线周线MACD指标使用图文教程,通达信指标
  • 什么是零知识证明(Zero-Knowledge Proof, ZKP)
  • BF的数据结构题单-省选根号数据结构 - 题单 - 洛谷 计算机科学教育新生态
  • 基于开源AI智能名片链动2+1模式S2B2C商城小程序源码的用户价值对接机制研究
  • IDE/IoT/实践小熊派LiteOS工程配置、编译、烧录、调试(基于 bearpi-iot_std_liteos 源码)
  • 阿里云-接入SLS日志
  • 抗辐照芯片技术在商业卫星领域的应用与突破
  • C++ 第四阶段 STL 容器 - 第一讲:详解 std::vector
  • llama.cpp学习笔记:后端加载
  • M1芯片最终oracle成功版本拉取方法及配置
  • 【Linux庖丁解牛】— 文件系统!