当前位置: 首页 > news >正文

大型语言模型(LLM)的技术面试题

大型语言模型(LLM)的技术面试题

目录

    • 大型语言模型(LLM)的技术面试题
      • 一、提示校准:减轻提示学习中的偏见
      • 二、矢量存储的适用场景
      • 三、模型与人类价值观对齐的技术
      • 四、RLHF中的Reward Hacking
      • 五、微调效果的关键影响因素:预训练模型架构与大小
      • 六、Transformer自注意力机制:衡量单词重要性
      • 七、子词算法(如BPE、WordPiece):限制词汇量
      • 八、Adaptive Softmax:利用Zipf定律提升效率
      • 九、推理参数“温度(Temperature)”:控制输出随机性
      • 十、跨GPU训练技术:FSDP(Fully Sharded Data Parallel)

在这里插入图片描述

一、提示校准:减轻提示学习中的偏见

原理:提示校准(Prompt calibration)通过调整提示词的表述方式,减少模型输出中的固有偏见,而非修改模型本身或训练数据。它聚焦于优化输入指令的中立性和精确性,从而引导模型生成更公平的结果。
举例:若要通过LLM筛选简历,原始提示可能包含“优先考虑年轻候选人”,这隐含年龄偏见。通过提示校准,可调整为“根据岗位要求匹配候选人技能,不考虑年龄因素”,使模型输出更符合公平原则。

二、矢量存储的适用场景

原理:矢量存储用于存储文本的语义向量(捕获语义信息),主要支持需要外部知识检索的任务(如RAG系统)。但并非所有文本任务都需要——仅依赖文本自身上下文即可完成的任务无需矢量存储。
无需矢量存储的场景举例

http://www.lryc.cn/news/589044.html

相关文章:

  • 如何通过 WebSocket 接口订阅实时外汇行情数据(PHP 示例)
  • 深入探讨Hadoop YARN Federation:架构设计与实践应用
  • CentOS 8-BClinux8.2更换为阿里云镜像源:保姆级教程
  • Linux、Ubuntu和CentOS的关系与区别
  • RNN、GRU 与 LSTM 计算成本深入对比
  • 贪心贪心的反悔
  • 大语言模型零样本情感分析实战:无需机器学习训练,96%准确率实现指南
  • 003大模型基础知识
  • QT——文件选择对话框 QFileDialog
  • Perfectly Clear WorkBench V4.6.1.2731图像后期处理调色工具安装部署
  • 3.2数据库-关系代数-函数依赖-范式
  • 深度强化学习 | 图文详细推导深度确定性策略梯度DDPG算法
  • linux网络编程之单reactor模型(二)
  • Web攻防-PHP反序列化字符逃逸增多减少成员变量属性解析不敏感Wakeup绕过
  • 第二章 数据的表示和运算
  • 【每天一个知识点】多模态信息(Multimodal Information)
  • 为何说分布式 AI 推理已成为下一代计算方式
  • AI-Compass LLM训练框架生态:整合ms-swift、Unsloth、Megatron-LM等核心框架,涵盖全参数/PEFT训练与分布式优化
  • 分布式通信框架 - JGroups
  • 第二阶段-第二章—8天Python从入门到精通【itheima】-129节(MySQL的安装)
  • JVM——编译执行于解释执行的区别是什么?JVM使用哪种方式?
  • 从 0 到 1 掌握 自研企业级分布式 ID 发号器
  • 【PTA数据结构 | C语言版】创建哈夫曼树
  • 【c++】c++11新特性(右值引用和移动语义)
  • 安全参綉25暑假第一次作业
  • 如何科学做好企业软件许可优化?
  • 构建 Go 可执行文件镜像 | 探索轻量级 Docker 基础镜像(我应该选择哪个 Docker 镜像?)
  • 波动回升正当时!期权合成多头:震荡市攻守兼备利器
  • 职业院校网络安全攻防对抗实训室解决方案
  • Axios 和Express 区别对比