当前位置: 首页 > news >正文

大模型关键字解释

💡 一、模型结构关键词

1. Transformer

Transformer 是一种专门用来“理解文字”的神经网络结构。就像一个聪明的秘书,能同时看懂整段话的所有词之间的关系,而不是像老式模型那样一句一句读。

👉 举例:以前的模型像一个机器人一字一句看句子,而 Transformer 像是一个能一眼扫完全文并抓住重点的读者。


2. Encoder / Decoder

  • Encoder(编码器):负责把输入的文字变成“理解用”的数字信息。
  • Decoder(解码器):把理解后的信息变成一句完整的回复或新内容。

👉 举例:输入“我饿了”,Encoder 会理解你是饿了,Decoder 会回复“那你去吃点东西吧”。


3. Attention / Self-Attention

这是一种让模型“关注重点词”的机制。比如“狗追着猫跑”,模型要知道谁在追谁,就要重点关注“狗”和“追”。

👉 举例:你读一句话时,也会自动注意重要的词,Attention 就是模型的“注意力”。


4. Feed Forward

一个普通的神经网络层,用来把每个词的理解结果进一步加工。

👉 类比:就像你理解完每个词之后,还要在脑子里再想一下它具体的含义。


5. Residual

让模型保留旧信息,避免忘掉之前学的内容。

👉 类比:像你在写作业时,在旁边保留一个草稿记录,避免前后逻辑出错。


6. Positional Encoding

Transformer 本身不理解词语的顺序,所以要专门加上“位置信息”。

👉 举例:句子“我爱你”和“你爱我”意思不同,模型需要知道“我”和“你”的位置才能理解准确。


📘 二、训练机制关键词

1. Pretraining(预训练)

模型最初要在大量文本上自学语言规律,相当于打基础。

👉 举例:就像你上小学之前,要先学拼音和字母。


2. Fine-tuning(微调)

在预训练之后,模型可以针对具体任务(如答题、写诗)进行专门训练。

👉 类比:基础学完后,你可以专门练习写作文或做数学题。


3. Masked Language Modeling(MLM)

训练方式是“填空题”式:随机遮住句子中的某些词,让模型猜出是什么词。

👉 举例:输入“我今天很 [MASK]”,模型要猜“开心”或“难过”。


4. Causal Language Modeling(因果语言建模)

只能看到前面词,来预测下一个词。

👉 举例:你说“我今天去”,模型要猜你下一步是“上班”还是“旅游”,不能偷看后面的词。


5. Next Sentence Prediction

训练模型判断“两句话是否有关联”。

👉 举例:一句是“我今天生病了”,下一句是“我请了假”,模型要学会识别这两句是连贯的。


⚙️ 三、推理部署关键词

1. KV Cache

缓存之前生成的结果,避免重复计算。

👉 类比:你和朋友聊天,不需要每次都从第一句重复讲,模型也可以记住前文。


2. Quantization(量化)

把模型参数从大数字变成小数字,压缩模型,加快运行。

👉 举例:就像把高清图片压缩成小图,但尽量不影响清晰度。


3. LoRA(低秩适配)

只调整少部分模型参数来完成微调,节省资源。

👉 类比:给现有软件加一个插件,而不是重新写整个程序。


4. FP16 / INT8

模型的“计算精度”。FP16 是半精度,INT8 是 8位整数。

👉 举例:像把原本需要用“毫米”测量的东西,换成“厘米”测量,快但略有损失。


5. Batching

同时处理多个输入,提高效率。

👉 类比:不是一个一个炒菜,而是开大锅做十份菜。


✨ 四、提示词工程关键词

1. Prompt

给模型的提示或问题。

👉 举例:你问“写一首关于夏天的诗”,这句话就是 prompt。


2. System Prompt

系统默认的背景设定,决定模型说话风格。

👉 举例:“你是一位耐心的老师”,模型就会用耐心的语气回答问题。


3. Zero-shot / Few-shot

  • Zero-shot:不给模型例子,直接问。
  • Few-shot:给模型几个示例,帮助它更好理解任务。

👉 举例:你说“翻译‘I love you’”,就是 Zero-shot;你先给它几个中英文对照例子再让它翻译,就是 Few-shot。


4. Chain of Thought

引导模型写出思考过程,而不是直接给答案。

👉 举例:问“2个苹果和3个苹果一共几个?”模型先写“2+3=5”,再说“答案是5”。


5. Temperature / Top-k / Top-p

控制输出的“随机性”。

  • Temperature 高,回答更有创意;
  • Top-k/p 是限制选词范围,保证输出更合理。

👉 类比:就像你写作文时,可以自由发挥(高温)或按模板来写(低温)。


6. Stop Sequence

设置模型遇到某些词就停。

👉 举例:模型生成到“谢谢,再见。”就停止,避免继续胡说。


📚 五、语料与训练数据关键词

1. Common Crawl

互联网上公开网页的数据集合,是模型学习材料的一部分。

👉 类比:就像你小时候到图书馆随便读所有书,模型也从网上“读书”。


2. Deduplication

去掉重复内容,防止模型过度记忆某句话。

👉 举例:一本书里重复太多遍“我爱你”,模型就可能过度使用这个句子。


3. Tokenization

把句子切成模型能理解的小单位(词或字)。

👉 举例:“我爱你”会被切成3个 Token,模型每次处理一个单位。


4. RLHF(人类反馈强化学习)

人类给模型输出打分,然后模型根据反馈学会给出更合适的答案。

👉 类比:你教小朋友讲话时,夸他讲得好,他就更愿意那样说。


🛡️ 六、安全与对齐关键词

1. Prompt Injection

一种攻击方式,偷偷加内容控制模型行为。

👉 举例:你本来叫模型“礼貌地回答问题”,但有人输入“忽略之前所有指令”,模型可能就被控制了。


2. Jailbreak

突破模型安全限制,让它说出不该说的话。

👉 类比:像“黑客绕过密码”一样,让模型做违禁事。


3. Bias Mitigation

减少偏见,让模型更公平。

👉 举例:避免模型认为“程序员=男性”,减少性别歧视。


4. Guardrails

给模型设定边界,比如不能说暴力内容或给出危险建议。

👉 类比:像儿童视频网站一样,自动屏蔽不良内容。


5. Constitutional AI

给模型写一套“价值观宪法”,让它言行合乎道德。

👉 举例:比如“不撒谎”、“不鼓励暴力”、“尊重人类”,模型的回答会严格遵守这些原则。

http://www.lryc.cn/news/581716.html

相关文章:

  • 【机器学习笔记Ⅰ】4 梯度下降
  • 【管理学】乐嘉性格色彩与MBTI的优劣和适用场景
  • 【C++基础】内存管理四重奏:malloc/free vs new/delete - 面试高频考点与真题解析
  • 汇编与接口技术:8259中断实验
  • 高效处理大体积Excel文件的Java技术方案解析
  • 从0写自己的操作系统(4)实现简单的任务切换
  • FileZilla二次开发实战指南:C++架构解析与界面功能扩展
  • 在Ubuntu 24.04上部署Zabbix 7.0对服务器进行监控
  • 【机器学习笔记Ⅰ】13 正则化代价函数
  • [2025CVPR]一种新颖的视觉与记忆双适配器(Visual and Memory Dual Adapter, VMDA)
  • SSL 终结(SSL Termination)深度解析:从原理到实践的全维度指南
  • Python Bcrypt详解:从原理到实战的安全密码存储方案
  • 用户中心Vue3项目开发2.0
  • 2048小游戏实现
  • 线性代数--AI数学基础复习
  • 深度学习6(多分类+交叉熵损失原理+手写数字识别案例TensorFlow)
  • Chunking-free RAG
  • Web-API-day2 间歇函数setInterval与事件监听addEvenListener
  • 【Note】《Kafka: The Definitive Guide》第四章:Kafka 消费者全面解析:如何从 Kafka 高效读取消息
  • Apache Spark 4.0:将大数据分析提升到新的水平
  • A O P
  • 金融级B端页面风控设计:操作留痕与异常预警的可视化方案
  • 深度学习篇---深度学习常见的应用场景
  • 容声W60以光水离子科技实现食材“主动养鲜”
  • [Qt] visual studio code 安装 Qt插件
  • FastAPI + Tortoise-ORM + Aerich 实现数据库迁移管理(MySQL 实践)
  • 深度学习 必然用到的 线性代数知识
  • 嵌入式 数据结构学习(五) 栈与队列的实现与应用
  • React Ref 指南:原理、实现与实践
  • 【PyTorch】PyTorch中torch.nn模块的卷积层