当前位置: 首页 > news >正文

大语言模型学习

大语言模型发展历程

当前国内外主流LLM模型

一、国外主流LLM

  1. LLaMA2

    • Meta推出的开源模型,参数规模涵盖70亿至700亿,支持代码生成和多领域任务适配‌57。
    • 衍生版本包括Code Llama(代码生成优化)和Llama Chat(对话场景)‌56。
  2. GPT系列(GPT-3.5/GPT-4)

    • OpenAI开发的闭源模型,以多模态能力和长文本生成为核心优势,广泛应用于对话、代码生成等场景‌38。
  3. BLOOM

    • 由Hugging Face联合多国团队开发,1760亿参数,支持46种自然语言和13种编程语言,强调透明度和开源协作‌5。
  4. PaLM & Claude

    • Google的PaLM和Anthropic的Claude均为闭源模型,前者侧重科学计算,后者强化了推理和多模态能力‌37。
  5. BERT

    • Google早期基于Transformer架构的模型,虽参数较小(约3.4亿),但在自然语言理解任务中仍具影响力‌5。

二、国内主流LLM

  1. 文心一言(ERNIE Bot)

    • 百度研发的知识增强模型,融合万亿级数据和千亿级知识图谱,支持复杂问答和创意生成‌37。
  2. 通义千问

    • 阿里巴巴推出的开源模型(7B版本),基于Transformer架构,优化中英文混合任务处理‌36。
  3. ChatGLM系列

    • 包括ChatGLM-6B(62亿参数)和ChatGLM2-6B,支持双语对话,通过量化技术降低部署成本‌14。
    • 衍生模型VisualGLM-6B(78亿参数)整合视觉与语言模态,实现图文交互‌46。
  4. 盘古大模型

    • 华为开发的多模态模型,覆盖自然语言处理(NLP)、计算机视觉(CV)及科学计算领域‌7。
  5. MiLM-6B

    • 小米研发的64亿参数模型,在C-Eval和CMMLU中文评测中表现优异,尤其擅长STEM科目‌1。
  6. MOSS

    • 支持中英双语的开源对话模型,通过强化学习优化生成质量,适用于通用问答场景‌14。

三、其他特色模型

  • CodeFuse-13B‌:专精代码生成,预训练数据覆盖40+编程语言,HumanEval评测准确率达37.1%‌1。
  • 鹏程·盘古α‌:中文预训练模型,参数规模达千亿级,侧重长文本生成和领域适配‌6。
  • LaWGPT‌:基于中文法律知识微调的模型,适用于法律咨询和文书生成‌6。

大模型不足

当前大模型的不足主要体现在以下方面:

一、技术架构缺陷

  1. 数据与算力依赖过高
    大模型训练需消耗海量多模态数据及算力,万亿级参数规模导致资源投入呈指数级增长‌12。此外,海量小文件存储面临元数据管理挑战,需平衡扩展性与访问延时‌1。

  2. 逻辑推理能力薄弱
    在处理需逻辑推理、数值计算的复杂问题时表现较差,尤其在多步骤推理场景中准确率显著下降‌23。例如20步推理后准确率可能低于36%‌4。

  3. 灾难性遗忘与无记忆性
    训练新任务会损害原有任务性能,且在推理阶段无法记忆历史数据或场景(如自动驾驶需反复重新计算路况)‌23。多数大模型不具备持续记忆能力,依赖有限上下文窗口‌38。


二、知识与应用局限

  1. 知识时效性与领域局限
    大模型知识库仅覆盖训练数据截止时间点内容,无法实时更新‌5。同时缺乏特定领域(如企业私有数据)的专业知识,影响垂直场景应用效果‌5。

  2. 幻觉问题频发
    生成内容存在事实性错误或虚构信息,例如伪造参考文献、错误解答数学题等。这与基于概率预测的Transformer架构特性直接相关‌45。


三、模型可控性不足

  1. 自我纠错能力缺失
    无法识别错误来源(如训练数据缺陷或算法漏洞),更缺乏自主修正机制。典型案例包括GPT-4算术错误后无法定位问题根源‌23。

  2. 黑箱模型可解释性差
    决策过程不透明,导致医疗、法律等关键领域应用受限。调试困难进一步加剧优化挑战‌46。


四、资源与安全风险

  1. 计算成本高昂
    训练与部署需超大规模算力支持,对普通机构形成技术壁垒‌16。

  2. 数据偏见与标注错误
    训练数据隐含社会偏见可能被放大,人工标注错误易导致模型认知偏差‌6。

AIGC产业解析

AIGC基础层

算力基础 数据基础 算法基础

AIGC大模型层

通用基础大模型  行业垂直型基础大模型 业务垂直基础大模型

AIGC工具层

AI Agents 模型平台 模型服务 AutoGPT LangChain

AIGC应用层

http://www.lryc.cn/news/545294.html

相关文章:

  • 夜天之书 #106 Apache 软件基金会如何投票选举?
  • 从Aurora看Xanadu可扩展模块化光量子计算机的现状与未来展望
  • WPS如何添加论文中的文献引用右上角小标
  • 如何理解语言模型
  • 准确-NGINX 1.26.2配置正向代理并编译安装的完整过程
  • 企业如何将ERP和BPM项目结合提升核心竞争力
  • Linux内核以太网驱动分析
  • 分布式微服务系统架构第92集:智能健康监测设备Java开发方案
  • 【推荐项目】023-游泳俱乐部管理系统
  • Webpack常见配置实例
  • C++核心编程之STL
  • Mac mini M4安装nvm 和node
  • Level DB --- 写流程架构
  • 【中等】707.设计链表
  • 深入理解Reactor Flux的生成方法
  • next实现原理
  • LeetCode 热题 100 53. 最大子数组和
  • DeepSeek 与大数据治理:AI 赋能数据管理的未来
  • 【时时三省】(C语言基础)浮点型数据
  • 【大模型】Ollama本地部署DeepSeek大模型:打造专属AI助手
  • 2025.3.2机器学习笔记:PINN文献阅读
  • 数据集笔记:新加坡 地铁(MRT)和轻轨(LRT)票价
  • 如何修改安全帽/反光衣检测AI边缘计算智能分析网关V4的IP地址?
  • Java 大视界 -- 基于 Java 的大数据分布式缓存一致性维护策略解析(109)
  • SyntaxError: positional argument follows keyword argument
  • Ruby基础
  • JMeter 断言最佳实践
  • 【Android】类加载器热修复-随记(二)
  • 从零开始用react + tailwindcss + express + mongodb实现一个聊天程序(八) 聊天框用户列表
  • Linux网络 TCP全连接队列与tcpdump抓包