当前位置: 首页 > news >正文

Prompt engineering(PE) —— prompt 优化如何进行?

从新手到高手:Prompt最佳实践全解析

一、引言:开启 Prompt 的神秘大门

在这里插入图片描述

在这个人工智能飞速发展的时代,AI 已经悄然融入我们生活的方方面面。你是否有过这样的经历:
当你对着智能音箱询问 “明天天气如何” 时,它能迅速给出准确的天气预报;
又或者你在使用图像生成工具时,输入几个简单的关键词,就能得到一幅令人惊叹的艺术作品。这些神奇的交互背后,都离不开一个关键的元素 ——Prompt

Prompt,简单来说,就是我们向 AI 发出的指令或提示。它就像是一把钥匙,能够开启 AI 理解我们需求的大门。

同样是询问天气,如果只是简单地说 “天气”,AI 可能会感到困惑,不知道你具体想了解哪里、什么时候的天气。但当你明确地说 “北京明天天气如何” 时,AI 就能精准地为你提供所需信息

这就是 Prompt 的力量,它决定了 AI 输出结果的质量和准确性。

对于 AI 算法应用工程师而言,掌握 Prompt 的最佳实践,就如同掌握了与 AI 高效沟通的密码。

在实际工作中,无论是开发智能客服系统、文本生成工具,还是进行数据分析和预测,精心设计的 Prompt 都能让 AI 模型发挥出更大的潜力,为用户提供更优质的服务。

接下来,就让我们一起深入探索 Prompt 的世界,揭开它的神秘面纱,学习如何运用它来释放 AI 的无限可能。

二、认识 Prompt

(一)Prompt 是什么

在 AI 领域,Prompt 就像是我们与模型交流的 “敲门砖”,是用户输入的文本或问题,更是引导 AI 模型生成结果的关键指引 。

当我们使用图像生成 AI 时,输入 “一幅美丽的星空下,有一座古老城堡的油画” 这样的 Prompt,模型就能依据这个描述,在其庞大的知识储备中搜索关于星空、城堡、油画风格等元素,进而创作出符合我们想象的画作。

又比如在智能写作助手里,输入 “以春天为主题,写一篇抒情散文的开头”,模型便会围绕春天的特点、情感等展开创作,为我们提供灵感的起点。它就像一个神奇的 “魔法咒语”,准确的表述能召唤出令人惊喜的结果,而模糊或简单的指令则可能让模型 “不知所措”,给出不尽人意的输出

(二)为什么需要 Prompt 工程

如今的大模型虽然拥有强大的能力,但就像一个超级智能却有点 “懵懂” 的助手,需要我们精准地引导,才能发挥出最大价值

这就是 Prompt 工程存在的意义。大模型在预训练时吸收了海量的数据,但这些知识需要被正确激发。通过 Prompt 工程,我们可以将用户复杂、多样的意图,转化为模型能够理解的清晰指令 ,让模型更好地理解我们的需求,从而生成准确、有用的回复。

以智能客服为例,如果只是简单地问 “产品有问题”,模型很难知道具体是质量问题、使用问题还是其他方面的问题。但通过 Prompt 工程优化后的提问,

如 “我购买的 XX 型号产品,在使用时出现了 XX 故障,该如何解决”,模型就能快速定位问题,提供针对性的解决方案。在文本生成任务中,Prompt 工程可以帮助我们控制生成内容的风格、结构和主题。想要一篇正式的商务报告还是轻松幽默的科普文章,是详细阐述观点还是简洁概括要点,都能通过精心设计的 Prompt 来实现,使模型的输出更贴合我们的期望。

三、Prompt 设计:打好基础

(一)明确目的

在使用 Prompt 之前,明确目的就像是为一场旅行确定目的地,是至关重要的第一步。只有清楚地知道自己想要模型做什么,才能构建出有效的 Prompt,引导模型生成符合预期的结果。

例如,同样是与美食相关的需求,如果目的是写一篇美食推荐文案,Prompt 可以是 “请为一家主打意大利美食的餐厅写一篇 500 字的推荐文案,突出招牌菜品和独特用餐氛围”;而如果目的是获取美食制作步骤,Prompt 则应是 “请提供意大利面的详细制作步骤,包括所需食材和烹饪时间” 。

这两个 Prompt 虽然都围绕意大利美食,但由于目的不同,内容和侧重点也截然不同。明确目的可以帮助我们避免模糊不清的指令,让模型准确理解我们的需求,就像给模型绘制了一张精准的地图,使其在生成内容时不会偏离方向,从而大大提高输出结果的质量和相关性。

(二)构造要点

1, 提供细节:为 Query 提供更多相关细节,如同为模型点亮更多的灯塔,照亮它理解问题的道路,从而获得更准确的答案。

以 “写一篇文章” 和 “为一群 10 - 15 岁的孩子编写一篇介绍太空探索历史的文章” 这两个 Query 为例,前者过于宽泛,模型可能不知道从何下手,输出的文章内容和风格难以符合特定受众的需求;而后者明确了受众是 10 - 15 岁的孩子,主题是太空探索历史,模型就能根据这些细节,用更通俗易懂、生动有趣的语言,讲述适合孩子们理解的太空探索故事,

比如介绍一些著名的太空探索事件、有趣的太空实验等,使文章更具针对性和可读性。在描述任务时,细节越丰富,模型生成的结果就越能满足我们的期望。

2, 使用分隔符:使用分隔符是一种简单而有效的方式,能像给不同物品贴上标签一样,更清晰地区分输入的不同部分,帮助模型更好地理解输入内容的结构和层次。例如,在处理文本总结任务时,我们可以使用三重引号(‘’’ )来分隔不同的文本段落,让模型明确知道每个部分的边界。

如 “请把三个引号括起来的文本,分别总结成为一句话。‘’’ 文本内容 1’‘’ ‘’’ 文本内容 2’‘’”,

这样模型就能准确地对每个独立的文本块进行总结,避免混淆和错误解读,使生成的总结更加准确和有条理

常见的分隔符还有章节标题、三重反引号(```)、三重破折号(— )、尖括号(<> )、“####” 等,它们在不同的场景中都能发挥重要作用,提升模型对输入的理解能力。

3, 引导结构和组织:为任务提供明确的结构和组织要求,就像给模型一个建筑蓝图,指引它有条不紊地构建内容。

以撰写城市绿化对空气质量改善影响的文章为例,“请撰写一篇 500 字的文章,讨论城市绿化对空气质量改善的影响。

文章应包括以下方面的内容:1. 引言:介绍城市绿化和其重要性。2. 影响空气质量的机制:解释树木和公园如何减少空气中的污染物。3. 可行性措施:讨论在城市规划中推广城市绿化的方法和挑战。4. 数据和案例研究:提供相关数据和至少两个城市绿化成功案例,以支持你的论点。5. 结论:总结城市绿化对空气质量的积极影响” 。

通过这样详细的结构引导,模型能够清晰地知道每个部分需要阐述的内容,从而更合理地组织思维和材料,生成逻辑清晰、层次分明的文章

使读者更容易理解和接受其中的观点

4, 限制输出格式:限制模型输出格式是一种有效的方式,能使模型的输出更符合我们的期望,方便后续的处理和应用。以提取病症任务为例,要求模型 “请提取参考资料中的所有病症,并且以 json 格式返回。

回答满足下面的格式要求:

1、以 json 的格式返回答案,json 只包括一个 key, key=“disease”,对应的值为列表,存储参考资料中的病症” 。

这样一来,模型输出的结果会以统一、规范的 json 格式呈现,不仅提高了可读性,使我们能一目了然地获取所需病症信息,而且方便在后续的数据分析、信息整合等工作中进行处理,增强了结果的稳定性和可用性,避免因格式混乱导致的信息提取困难或错误。

四、Prompt 优化:提升效果

(一)让模型扮演角色

让模型扮演一个特定的角色,就像给它披上了一件 “角色外衣”,能使其输出更符合人类的表达方式,更容易被理解,同时输出也会更加一致 。

在问答系统中,当让模型扮演一位资深的医生时,对于 “感冒了怎么办” 的问题,它会依据医学知识和临床经验,用专业、严谨的语言给出诊断建议和治疗方案;而如果让模型扮演一个有丰富旅行经验的驴友,对于 “推荐一个适合夏天旅游的地方” 的问题,它会以更亲切、生动的语言,分享自己的旅行经历和推荐理由,使回答更具个性和趣味性。

以 “黑洞是如何形成的” 为例,当模型扮演科学家时,会基于科学事实,先解释黑洞是一种引力极强的天体,然后详细阐述黑洞的形成过程,如恒星在自身引力作用下坍缩,当核心质量超过一定限度时,就会形成黑洞;

而当模型扮演玄幻小说家时,输出不再基于科学事实,而是充满了奇幻和想象,比如描述黑洞是宇宙中神秘的时空漩涡,是通往另一个神秘世界的入口,给人一种神秘的感觉,勾起读者的好奇心,让读者仿佛置身于一个充满奇幻色彩的玄幻世界中 。

(二)提供样例

1, 简单样例在一些任务中,通过加入指令可以优化提示词,但有时指令可能难以描述清楚,此时提供示例会更容易让模型理解

以文本二分类任务为例,让模型充当文本二分类器,对用户的评价进行分类,分为正面评价和负面评价。正常情况下,模型对于非绝对负面的评价可能都会分类为正面评价,对于完全负面的评价才会分类为负面评价 。

但如果我们希望模型对用户的评价是绝对正面时才输出正面评价,否则都输出负面评价,

如 “我最近在这家餐厅用餐,还行,但也不是特别惊艳” 这个案例,我们希望模型输出 “负面评价”。这时,提供一些示例供模型参考学习就很有必要。

例如 “请根据以下分类的方式,帮我分辨用户输入文本的类别是正面评价或是负面评价,请直接输出:正面评价 / 负面评价。请参考如下样例:示例 1:用户输入:我昨晚去了这家餐厅,他们的食物和服务都令人惊艳。我绝对会再次光顾。输出:正面评价;示例 2:用户输入:这本书我看过,部分情节还行,但是整体情节拖沓,比较一般。输出:负面评价 ” 。通过这些示例,模型能够更清晰地理解任务要求,从而更准确地进行分类

2, 复杂样例对于一些比较难的案例,只给标签可能不好理解,此时可以尝试在给示例的同时给出理由,这样模型会更容易理解任务

例如 “请根据以下分类的方式,帮我分辨用户输入文本的类别是正面评价或是负面评价,请输出:正面评价 / 负面评价,并给出理由。

请参考如下样例:示例 1:用户输入:我昨晚去了这家餐厅,他们的食物和服务都令人惊艳。我绝对会再次光顾。输出:正面评价,理由:食物和服务都令人惊艳,而且顾客会再次光临;

示例 2:用户输入:这本书我看过,部分情节还行,但是整体情节拖沓,比较一般。输出:负面评价,理由:整体情节拖沓” 。

当遇到 “我最近在这家餐厅用餐,还行,但也不是特别惊艳” 这样的输入时,模型就能依据示例中的理由,更准确地判断并输出 “负面评价,理由:评价中没有体现绝对的正面感受” ,使分类结果更合理,也更符合我们的预期

(三)指定步骤

当完成特定任务有明确的步骤时,通过指定完成任务需要的步骤

就像给模型绘制了一张行动路线图,可帮助模型按照正确的顺序执行,从而更好地生成回复。

以写故事为例,“请按照以下步骤写一个故事:1. 先设定故事背景和角色;2. 描述角色的目标和遇到的困难;3. 讲述角色如何克服困难并最终实现了目标;4. 最后以一个有趣的结局来结束故事” 。

在这个 Prompt 中,明确指定了完成故事任务的步骤,模型可以更有条理地构思和组织故事结构。

它会先在脑海中构建出一个充满奇幻色彩的魔法森林作为背景,设定一个勇敢的小魔法师作为主角;接着描述小魔法师的目标是寻找失落的魔法宝石,他在寻找过程中遇到了各种强大的魔法生物和神秘的魔法陷阱;然后详细讲述小魔法师运用自己的智慧和魔法技能,克服了重重困难,最终找到了魔法宝石;最后以小魔法师利用魔法宝石为魔法森林带来了和平与繁荣,大家都为他欢呼庆祝作为有趣的结局

这样生成的故事不仅情节完整,而且逻辑连贯,质量和连贯性都得到了显著提高。

(四)提供参考内容

在处理特定领域的问题时,如果涉及到专业知识,提供相关的参考内容就如同给模型提供了一把通往知识宝库的钥匙,能帮助模型更好地理解问题的背景和上下文,从而减少幻觉的出现

例如在医学领域,对于 “某种罕见病的治疗方法” 这样的问题,如果只让模型凭借自身的知识储备回答,可能会因为知识的局限性或理解的偏差,给出不准确或不完整的答案 。

但如果提供相关的医学研究报告、临床案例等参考内容,模型就能基于这些真实可靠的信息,更准确地阐述治疗方法,包括药物治疗的具体方案、手术治疗的适用情况、康复过程中的注意事项等,使回答更具专业性和可信度,避免出现一些没有科学依据的猜测或错误的建议。

(五)给模型 “思考” 时间

1, zero-shot 场景:在一些逻辑推理、数学运算等场景下,考虑使用 CoT(Chain of Thought)分解问题能让模型像人类一样逐步思考,从而增加输出正确结果的概率

在 zero-shot 场景中,我们可以在 Prompt 中加上 “Let’s think step by step” 或者 “让我们一步一步分析思考” 。

例如在解决数学问题 “一个数加上 5,再乘以 3,结果是 36,求这个数是多少” 时,如果直接让模型回答,可能会因为思考过程不清晰而给出错误答案。

但当我们在 Prompt 中加入 “让我们一步一步分析思考” 后,模型会先思考:设这个数为 x,那么 (x + 5)×3 = 36,接着它会根据等式的性质,先将等式两边同时除以 3,得到 x + 5 = 12,然后再将等式两边同时减去 5,最终得出 x = 7,这样通过逐步思考,大大提高了答案的准确性。

2, few-shots 场景:在处理复杂、多步骤的问题时,few-shots 场景下可以通过提供实例、分解问题和提供解释来帮助模型更好地理解任务。

以计算器任务为例,“你是一个计算器,请你将用户输入的数字分别加上 2,减去 3,乘以 3,除以 2 后直接输出计算结果,以 ‘,’ 作为分隔符进行返回。

示例如下:输入:1,2,3,4,5;答案:0, 1.5, 3, 4.5, 6” 。当输入 “2,4,6,8,10” 时,如果没有详细的解释和步骤引导,模型可能无法给出正确答案。

但如果我们分步骤地提供解释,如 “对于输入:1,2,3,4,5;计算过程如下。

首先分别对输入 1,2,3,4,5 加上 2,得到:3, 4, 5, 6, 7;然后将 3,4,5,6,7 分别减去 3,得到:0, 1, 2, 3, 4;然后将 0,1,2,3,4 分别乘以 3,得到:0, 3, 6, 9, 12;最后将 0,3,6,9,12 分别除以 2,得到:0, 1.5, 3, 4.5, 6;答案是:0, 1.5, 3, 4.5, 6 ” 。

模型就能按照这个思路,对输入 “2,4,6,8,10” 进行同样的计算步骤,先加上 2 得到 4, 6, 8, 10, 12,再减去 3 得到 1, 3, 5, 7, 9,接着乘以 3 得到 3, 9, 15, 21, 27,最后除以 2 得到 1.5, 4.5, 7.5, 10.5, 13.5,从而准确地完成复杂的计算任务。

五、Prompt 评测:检验成果

(一)系统地测试变更

当我们完成了 Prompt 的设计和优化后,Prompt 就会发生相应的变更

但这些变更是否真的让系统变得更好了呢?这就需要进行系统地测试变更

最初,我们可能只是通过查看几个例子来判断哪个 Prompt 更好,但这种方式存在很大的局限性。因为样本量小,我们很难区分是真正的改进还是仅仅因为运气好才得到了看似更好的结果 。

所以,设计一个好的评估集就显得尤为重要。一个好的评估集就像是一把精准的尺子,能够准确衡量 Prompt 的性能。它一般具有以下特征

  • 多样性:评估集中,应该包含足够的多样性,涵盖不同的领域、话题和语境 。以一个智能写作助手为例,评估集不能仅仅包含关于科技领域的内容,还应该包括文学、历史、生活等多个领域的话题,以及正式、口语、幽默等不同的语境。这样才能全面地检验 Prompt 在各种情况下的表现,确保模型在面对复杂多变的用户需求时,都能生成高质量的内容。
  • 高质量:评估集中的数据应该是高质量的,能准确反映真实的业务情况 。如果评估集中存在错误、模糊或不相关的数据,就会误导我们对 Prompt 性能的判断。在一个电商客服的评估集中,用户问题和对应的正确答案都应该是真实、准确且具有代表性的,这样才能有效地评估 Prompt 在处理实际客户问题时的能力。
  • 规模适中:评估集的规模应该足够大,以便能够充分评估 Prompt 的性能,但又不能太大以至于导致计算资源的过度消耗 。通常,几百到几千个样本是一个合理的范围。如果评估集规模过小,可能无法覆盖所有的情况,导致评估结果不准确;而如果规模过大,不仅会增加计算成本,还可能引入更多的噪声数据,影响评估的有效性。

(二)重复和迭代

Prompt 的生成过程实际上是一项充满探索性和实验性的工作

在这个过程中,我们就像在黑暗中摸索前行的冒险者,需要不断地尝试和调整不同的方法,才能找到那把开启最优效果大门的钥匙 。一个典型的迭代路径是:首先,我们要精心完成 Prompt 设计,这是整个过程的基础,就像建造高楼大厦需要打好坚实的地基一样;接着,基于设计好的 Prompt 获取实验结果,这些结果是我们判断 Prompt 效果的重要依据;然后,仔细分析 bad cases,找出那些导致模型输出不理想的原因,就像医生诊断病情一样,准确找出问题所在;再针对这些问题解 bad cases,并进一步优化 Prompt 。通过多次这样的重复和迭代,不断改进 Prompt,直到达到一个最优效果。在图像生成任务中,我们可能最初设计的 Prompt 生成的图像颜色过于暗淡,经过分析发现是对颜色描述不够明确,于是我们优化 Prompt,增加对颜色鲜艳程度的描述,再次生成图像,发现颜色有了明显改善,但图像的细节又不够丰富,于是继续分析、优化,如此反复,最终得到满意的图像 。需要进一步说明的是,获取模型的最佳输出不仅依赖于优秀的 Prompt,用户提供的反馈和修正也起着至关重要的作用。在实际应用中,用户的反馈就像一面镜子,能够让我们看到 Prompt 的不足之处。通过线上持续的反馈和修正,模型才能更顺利地理解并满足用户需求,不断提升自身的性能和适应性,为用户提供更加优质、精准的服务 。

六、附录:关键知识补充

(一)参数设置

1,Temperature:这个参数就像是模型的 “创意开关”,用于控制模型输出结果的随机性。

当 Temperature 的值较低时,比如设置在 0.2 - 0.5 之间,模型会变得比较 “保守”,更倾向于选择那些高概率出现的词汇和语句,输出结果也就更加稳定、准确,就像一个严谨的科学家在陈述事实
在代码生成任务中,低 Temperature 能确保生成的代码符合规范和逻辑,减少错误和意外情况的出现 。

而当 Temperature 的值较高,如设置在 0.7 - 1.0 之间时,模型会变得更加 “大胆”,它会更多地尝试那些低概率的词汇和表达,从而产生更具多样性和创造性的结果,如同一位富有想象力的艺术家在自由创作。在诗歌生成或故事写作任务中,高 Temperature 可以让模型生成更加独特、新颖的内容,给人带来意想不到的惊喜 。Temperature 为 0 时,模型就像被固定了思维,每次都会给出相同的输出,缺乏变化和创新 。

2, Top_p:Top_p 又被称为 “核采样阈值”,它主要控制模型在生成响应时的确定性程度,进而影响生成结果的多样性和创造性 。

具体来说,模型在生成下一个 Token 时,会对所有可能的 Token 按照概率进行排序,然后从概率最高的 Token 开始,依次累加它们的概率,直到累加概率超过 Top_p 设定的值

此时,模型只会从这些累加概率不超过 Top_p 的 Token 中进行选择,生成下一个 Token

当 Top_p 的值较低时,比如设置为 0.7 或更低,模型的选择范围就会比较窄,它会更依赖那些最有可能出现的 Token,生成的结果也就更加确定、可预测,适合对准确性要求较高的任务,如翻译、问答等 。

在翻译任务中,低 Top_p 可以保证翻译结果更贴近常见的表达方式和语义,减少歧义。而当 Top_p 的值较高,如设置为 0.9 或更高时,模型的选择范围会扩大,它更有可能选择一些低概率但有趣的 Token,从而使生成的结果更加多样化 。

在对话生成任务中,高 Top_p 可以让模型给出更丰富、灵活的回复,增加对话的趣味性和自然度 。当提示语较长且描述得足够清楚时,模型生成的输出质量较好、置信度较高,此时可以适当调高 Top_p 的值,让模型在保证准确性的同时,展现更多的多样性;

反之,如果提示语很短、很含糊,再设置一个较高的 Top_p 值,模型的输出可能就会变得不稳定,因为它没有足够的信息来准确判断哪些 Token 是最合适的,容易生成一些不符合逻辑或与上下文不相关的内容 。

(二)关键概念 - Token

在大语言模型的世界里,Token 可以看作是模型用来理解和处理自然语言文本的 “基本积木” 。

简单来说,它是文本被分割后的最小语义单元,既可以是单个字符、部分单词、整个单词,甚至还可以是标点符号 。通常情况下,我们可以认为 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 Token 。

在 “我喜欢苹果” 这句话中,“我”“喜欢”“苹果” 这三个中文词语就分别对应 3 个 Token;而在英文句子 “I love apples” 中,“I”“love”“apples” 这三个单词也各自是 1 个 Token 。但需要注意的是,由于不同模型采用的分词器不同,对于同一段文本,它们划分出的 Tokens 数量可能会存在差异 。使用字节对编码(BPE)分词器的模型,可能会将 “unbelievable” 这个单词拆分为 “un”“belie”“able” 这 3 个 Token;而另一些模型可能会有不同的拆分方式 。

(三)参考模版

1, 任务型模版:任务型模版就像是给模型制定的一份详细 “任务清单”,它能帮助我们更有条理地引导模型完成特定任务

格式通常为:“假如你是 {某个角色},你将根据 {上下文信息},来解决 {具体某个任务}。

根据以下规则一步步执行:1. 规则 1;2. 规则 2……” 。在使用这个模版时,我们首先要明确模型需要扮演的角色,这可以让模型更好地代入情境,给出符合角色身份的回答 。

然后,提供清晰的上下文信息,让模型了解任务的背景和相关条件 。接着,详细说明具体的任务内容,使模型清楚知道需要完成什么 。

最后,制定执行规则,这些规则可以是任务的具体步骤、要求或限制,帮助模型按照正确的方式完成任务 。

以一个电商客服场景为例:“假如你是一位专业的电商客服,你将根据客户的订单信息和咨询内容,来解决客户的问题。根据以下规则一步步执行:1. 首先,确认客户咨询的问题类型,是物流查询、产品质量问题还是其他问题;2. 如果是物流查询,根据订单号在物流系统中查询最新物流信息并告知客户;3. 如果是产品质量问题,详细询问客户遇到的具体问题,记录相关信息,并告知客户会尽快安排售后人员联系处理 。
参考例子:示例 1:问题:我购买的商品还没收到,订单号是 123456。输出:您好,您的订单物流信息显示,商品目前正在运输途中,预计明天送达 。示例 2:问题:我收到的商品有损坏。输出:非常抱歉给您带来不好的体验,请您详细描述一下商品损坏的情况,我们会尽快安排售后人员与您联系处理 。请回答问题:问题:我想查询一下我的订单什么时候发货,订单号是 789012 。输出:” 。通过这样的任务型模版,模型能够更准确、高效地处理客户问题,提供满意的服务 。

2, 角色型模版(生成 System Prompt):角色型模版主要用于构建 System Prompt,它就像是为模型塑造一个独特的 “人物形象”,让模型以特定的角色身份进行交互

构建方式是:“你是 {某个具体人物},人称 {xxx},出身于 {交代背景信息和上下文} 。性格特点:{描述性格特点};语言风格:{描述语言风格};人际关系:{说明与其他人物的关系};过往经历:{讲述过去的重要经历};经典版台词 or 口头禅:{列举经典台词或口头禅} 。{台词 1 (补充信息:即你可以将动作、神情语气、心理活动、故事背景放在()中来表示,为对话提供补充信息。)};{台词 2}……” 。

如果我们想让模型扮演一位古代的文人墨客,那么可以这样构建角色型模版:“你是一位才华横溢的古代文人,人称‘墨先生’,出身于书香门第,自幼饱读诗书。性格特点:温文尔雅,谦逊有礼,富有才情且多愁善感 。语言风格:用词文雅,富有诗意,常引经据典 。人际关系:与众多文人雅士交往甚密,与邻家才女有一段浪漫的故事 。过往经历:曾多次参加科举考试,虽未高中榜首,但在文坛已小有名气,还游历过许多名山大川,留下了不少佳作 。经典版台词 or 口头禅:‘书中自有黄金屋,书中自有颜如玉’ 。(手持书卷,微微仰头,面带微笑)今日阳光正好,实乃读书赋诗之良辰美景 。(轻皱眉头,望着远方)唉,不知远方的佳人近来可好 。” 。通过这样详细的设定,模型在与用户交互时,就能以古代文人的身份,用符合其特点的语言风格和行为方式进行回应,给用户带来更加沉浸式的体验 。

七、结语:踏上 Prompt 进阶之路

在这场探索 Prompt 最佳实践的奇妙旅程中,我们一同揭开了 Prompt 的神秘面纱,深入了解了它在 AI 领域的关键作用。从认识 Prompt 是什么以及为什么需要 Prompt 工程,到掌握 Prompt 设计的要点,如明确目的、构造富含细节的指令;再到学习 Prompt 优化的各种技巧,像让模型扮演角色、提供样例引导等;以及学会通过系统测试和迭代来评测 Prompt 的效果 ,每一步都让我们离 AI 的核心更近一点。

同时,我们还补充了参数设置、Token 概念以及实用的参考模版等关键知识,这些都是我们在与 AI 交互过程中的得力工具。现在,你已经掌握了开启 AI 强大能力的钥匙,但这只是一个开始。Prompt 的世界充满了无限的可能性,还有更多的技巧和策略等待你去挖掘。

希望你能将所学运用到实际的 AI 应用中,不断实践和探索,尝试不同的方法,优化你的 Prompt。无论是开发智能应用、进行创意写作,还是解决复杂的问题,精心设计的 Prompt 都能让你的 AI 体验更加出色。

在这个快速发展的 AI 时代,持续学习和实践是我们保持领先的秘诀。期待你在 Prompt 的进阶之路上不断取得新的突破,创造出更多令人惊叹的 AI 应用成果!

http://www.lryc.cn/news/624970.html

相关文章:

  • 集成电路学习:什么是Face Detection人脸检测
  • leetcode4_452 and 763
  • 【论文学习】UoMo: 一个用于无线网络优化的移动流量预测通用模型
  • 学习嵌入式的第二十天——数据结构
  • 如何解决机器翻译的“幻觉“问题(Hallucination)?
  • 特赞内容运营解决方案,AI重构品牌内容价值链
  • (Arxiv-2025)OPENS2V-NEXUS:一个面向主体到视频生成的详细基准与百万规模数据集
  • 知识蒸馏 - 各类概率分布
  • 概率论基础教程第4章 随机变量(三)
  • 基于 Ansible 与 Jinja2 模板的 LNMP 环境及 WordPress 自动化部署实践
  • 数据库:表和索引结构
  • 【68页PPT】智慧方案信息物理系统与数字孪生某著名企业(附下载方式)
  • 从零开始搭建React+TypeScript+webpack开发环境——多环境配置管理方案
  • 图论:Floyd算法
  • WPF---数据模版
  • 算法题打卡力扣第26. 删除有序数组中的重复项(easy))
  • 计算机网络-IPv6
  • 使用 uv管理 Python 虚拟环境:比conda更快、更轻量的现代方案
  • 保姆级教学:使用 Jenkins 部署前端项目(2025 年最新版)
  • 知识蒸馏 Jensen-Shannon散度
  • Vue3 全新特性 defineModel 深度解析
  • [Oracle数据库] Oracle 进阶应用
  • BPO(Business Process Optimization,业务流程优化)
  • 信创产业:从技术突围到生态重构的强国之路
  • redis持久化机制:RDB和AOF
  • 手机视频怎么提取音频?3步转成MP3,超简单!
  • 十年回望:Vue 与 React 的设计哲学、演进轨迹与生态博弈
  • PLC 控制系统中 PCB 板的选型与设计要点
  • 申请免费的SSL证书,到期一键续签
  • 深入浅出决策树