当前位置: 首页 > news >正文

GPT-4-Turbo的128K长度上下文性能如何?超过73K Tokens的数据支持依然不太好!

本文原文来自DataLearnerAI官方网站:GPT-4-Turbo的128K长度上下文性能如何?超过73K Tokens的数据支持依然不太好! | 数据学习者官方网站(Datalearner)icon-default.png?t=N7T8https://www.datalearner.com/blog/1051699526438975

GPT-4 Turbo是OpenAI最新发布的号称性能超过当前GPT-4的模型。在新版本的ChatGPT中已经可以使用。而接口也在开放。除了速度和质量外,GPT-4 Turbo最吸引人的是支持128K超长上下文输入。但是,实际测试中GPT-4 Turbo对于超过73K tokens文档的理解能力急速下降。

GPT-4 Turbo支持128K的效果不完美

  • GPT-4 Turbo简介
  • 如何测试GPT-4对超长上下文理解能力的水平?
  • GPT-4 Turbo对128超长上下文支持的实际结果
GPT-4 Turbo对128超长上下文支持的实际结果

作者做了一张图描述这个结果:

 

GPT-4 Turbo 128K超长上下文测试

图的横坐标是文档的长度,纵坐标是插入的文本在文档的位置。可以看到,在右上角区域模型表现效果很差,这些基本都是文档上半段,然后开始位置之后(7%位置之后)。但是如果这句话在文档下半段效果反而还可以。

最终的实验结论如下:

  • GPT-4的召回率在输入文档超过73K tokens之后下降明显,这意味着,如果你的文档超过了50万单词之后可能GPT-4并不能准确找到你问题的答案位置;

  • 如果你的答案恰巧在文档7%-50%的位置,那么GPT-4能找到的概率最低,而50%的位置正好是文档中间。这也侧面验证了此前大模型的Lost in Middles特点(具体参考:大模型如何使用长上下文信息?斯坦福大学最新论文证明,你需要将重要的信息放在输入的开始或者结尾处!)

  • 如果需要回忆的事实位于文档的开头,无论上下文长度如何,都能被回忆起。这可能意味着模型对文档开头的信息有更好的记忆能力。

http://www.lryc.cn/news/224032.html

相关文章:

  • osg之黑夜背景地月系显示
  • 持续交付-Jenkinsfile 语法
  • IDEA重新choose source
  • 解析虚拟文件系统的调用
  • 佳能相机拍出来的dat文件怎么修复为正常视频
  • OAuth2.0双令牌
  • Django(二、静态文件的配置、链接数据库MySQL)
  • Linux 本地Yearning SQL审核平台远程访问
  • Leetcode—226.翻转二叉树【简单】
  • 【阿里云】任务2-OSS对象存储教程(找我参加活动可获得京东卡奖励)
  • 人工智能模型转ONNX 连接摄像头使用ONNX格式的模型进行推理
  • osgEarth之添加shp
  • Eolink Apikit 版本更新:「数据字典」功能上线、支持 MongoDB 数据库操作、金融行业私有化协议、GitLab 生成 API 文档...
  • GPT-4V:AI在医疗领域的应用
  • OpenCV 在ImShow窗体上选择感兴趣的区域
  • ubuntu 安装redis详细教程
  • qframework 架构 (作者:凉鞋)使用笔记
  • 【JMeter】定时器分类以及场景介绍
  • Spring Boot 请求/actuator/beans 无法访问 返回404
  • AVD联网
  • [Vue warn]: Missing required prop: “action“
  • Python标准库有哪些
  • 基于ssm的校园办公室报修管理系统
  • 1Panel 升级 Halo报错
  • spring-clound基础开发
  • 基于SSM的劳务外包管理系统的设计与实现
  • uni-app学习笔记(二)
  • 使用axios拦截器解决前端并发冲突问题
  • IPv6详解
  • 【C++干货铺】STL简述 | string类的使用指南