当前位置: 首页 > news >正文

OpenAI GPT 模型 API 接口新增参数 top_logprobs 和 logprobs

文章目录

  • 一、前言
  • 二、主要内容
  • 三、总结

🍉 CSDN 叶庭云https://yetingyun.blog.csdn.net/


一、前言

在最新的 OpenAI 官方 APIs 文档中,Create chat completion 中新增了 top_logprobs 和 logprobs 这两个关键参数。

在这里插入图片描述

官方文档地址:https://platform.openai.com/docs/api-reference/chat/create

  • logprobs:是否返回 output tokens 的对数概率(布尔类型,默认为 False)。如果为真,则返回消息内容中返回的每个 output token 的对数概率。目前 gpt-4-vision-preview 模型还不支持此选项。
  • top_logprobs:一个介于 0 到 5 之间的整数,指定在每个 token 位置返回最有可能的 tokens,并且每个 token 都有一个关联的对数概率。如果使用了这个参数,logprobs 就必须设置为 True

显然,这两个参数被设计为协同工作。理论上,调整 top_logprobs 和 logprobs 不应导致输出的 tokens 数量增加,从而避免了额外的 API 调用成本。


二、主要内容

OpenAI 的 GPT 模型 API 接口新增的 top_logprobs 和 logprobs 参数可以帮助我们理解和调试大模型的输出结果,减轻幻觉问题,提高输出的确定性和可靠性。

分享要点:

  • OpenAI 的 GPT 模型 API 接口新增的 top_logprobs 和 logprobs 参数可帮助理解和调试大语言模型的输出。返回每个 token 及其后续 n 个单词的概率,判断是否输出幻觉结果。
  • 使用这两个参数可减轻大模型幻觉问题。通过设置合适的 temperature 值和观察每个 token 的概率,判断输出的确定性和可靠性,避免与直觉不符的结果。
  • 在实际应用中,这两个参数非常有价值。聊天应用可设置较高 temperature 值,增加多样性;回答科学问题可设置较低 temperature 值,避免错误信息。
  • top_logprobs 和 logprobs 参数提高了大模型应用的可控性,之前无法获得每个 token 位置返回最有可能的 tokens。
  • 通过困惑度解释生成结果具有一定应用价值,根据每个 token 的对数概率计算困惑度,判断输出的确定性。
  • 这两个参数降低幻觉问题,提高输出的确定性,增强模型的实用性和可靠性。在实际应用中,可以根据需求和场景设置参数,以达到最佳输出效果和应用效果。

这个 Notebook 演示了在「Create chat completion API」中使用 logprobs 参数。启用了 logprobs,则 API 将返回每个输出令牌的对数概率,以及在每个令牌位置上最有可能的有限数量的令牌及其对数概率。logprobs 的关键点:

  • 更高的对数概率表明在该上下文中 token 生成的可能性更大。
  • logprob 可以是任何负数或 0.0,0.0 对应于 100% 概率。
  • logprobs 允许我们计算作为对数概率的单个 token 的总和的序列的联合概率
  • 此外,还重点介绍了 logprobs 在分类任务、检索评分和自动补全中的应用,以及如何基于 logprobs 评估模型的置信度和模型对特定问题的捕捉程度。

三、总结

这篇博客介绍了如何使用 Chat Completions API 的 logprobs 和 top_logprobs 参数来获取输出 tokens 的概率信息,以及如何利用这些信息来实现不同的应用场景。这篇博客的要点有:

  • logprobs 参数的作用:logprobs 参数可以让 API 返回每个输出 token 的对数概率,以及每个 token 位置的最有可能的几个候选 tokens 及其对数概率。这些信息可以帮助用户评估模型的置信度,探索模型的备选响应,计算输出序列的整体概率,以及处理特殊字符或表情符号等。
  • logprobs 参数的用例:logprobs 参数可以用于多种场景,例如:
    • 分类任务:logprobs 参数可以提供每个类别预测的概率,让用户可以设置自己的分类或置信阈值。
    • 检索任务:logprobs 参数可以用于自我评估检索内容是否包含足够的信息来回答问题,从而减少基于检索的幻觉和提高准确性。
    • 自动完成任务:logprobs 参数可以用于动态地推荐下一个单词或 token,但只在模型对下一个单词很有把握的时候。
  • bytes 参数的作用:bytes 参数可以返回每个输出 token 的 ASCII(十进制 utf-8)值,这些值可以用于编码和解码每个 token,特别是包含表情符号或特殊字符的 token。

📚️ 参考链接:

  • OpenAI 的 GPT 模型 API 接口新增的 top_logprobs 和 logprobs 参数有什么用?为什么说可以减轻大模型幻觉问题
  • OpenAI Cookbook - Using logprobs
  • API reference - Create chat completion
  • 沈向洋:致 AI 时代的我们 —— 请不要忽视写作的魅力
http://www.lryc.cn/news/270543.html

相关文章:

  • React项目打包流程
  • 04-获取认证的用户身份信息
  • 二叉树的中序遍历,力扣
  • shiro1.10版本后-IniSecurityManagerFactory过期失效
  • 阿里后端实习二面
  • 「Kafka」生产者篇
  • C语言实现RSA算法加解密
  • 如何设计前后端分离的系统架构?
  • 【强化学习】SARAS代码实现
  • P1019 [NOIP2000 提高组] 单词接龙 刷题笔记
  • 如何实现WinApp的UI自动化测试?
  • chrome扩展程序开发之在目标页面运行自己的JS
  • NLP项目之语种识别
  • Linux lpr命令教程:如何使用lpr命令打印文件(附案例详解和注意事项)
  • 浅谈C语言inline关键字
  • Flink1.17实战教程(第六篇:容错机制)
  • OpenCV实战 -- 维生素药片的检测记数
  • 【AI】注意力机制与深度学习模型
  • HTML5和JS实现新年礼花效果
  • 【owt-server】一些构建项目梳理
  • Linux shell编程学习笔记38:history命令
  • elasticsearch安装教程(超详细)
  • arkts中@Watch监听的使用
  • 【Jmeter】Jmeter基础9-BeanShell介绍
  • 详解数组的轮转
  • html 表格 笔记
  • 计算机网络【HTTP 面试题】
  • linux基于用户身份对资源访问进行控制的解析及过程
  • 手动创建idea SpringBoot 项目
  • 【Go语言入门:Go语言的数据结构】