Prompt Enginering
1.Prompt Engineering 提示词工程
Prompt 给人工智能模型输入文本或指令,这些指令引导模型生成特定的输出
Prompt Engineering:指在使用生成式人工智能模型(比如gpt-4)时,设计优化输入文本(prompt)的过程,以便获得期望的输出
好的Prompt Engineering=提好的问题=包含好答案的上下文(参考)=好的答案
prompt 决定模型的输出质量
token
1. 什么是 token?
Token 是大模型处理文本的基本单位,可以是一个字、一个词、一个子词,甚至是一个标点符号。
例如,英文句子 I love AI! 可能被分成 4 个 token:I、love、AI、!。
中文通常一个汉字就是一个 token,但也可能按词切分。
2. Token 的作用
模型不会直接处理原始文本,而是先把文本分割成 token,再将 token 转换为数字(向量),输入到模型中。
模型的输入、输出、最大长度等,都是以 token 为单位计算的。
3. Token 数量的意义
计费:很多大模型的 API(如 OpenAI GPT)按 token 数量计费。
长度限制:模型有最大 token 长度限制(如 4096、8192、32000 等),超出会被截断或报错。
推理速度:token 越多,推理越慢,消耗资源越多。
Zero-shot
few-shot
思维链(可以说一步一步思考关键词,并且每一步做出解释可以完成COT)
通用知识Prompt 给出知识库
Prompt 分片2. chat Completions, memory(记忆)Json Mode
3. Funciton Calling
4. Fine-tunning 实战
5. 检索增强生成(RAG Graph Rag)
6. 本地部署开源模型