位置: IT常识 - 正文

ChatGPT研究分析:GPT-4做了什么(patriotic研究)

编辑:rootadmin
ChatGPT研究分析:GPT-4做了什么

推荐整理分享ChatGPT研究分析:GPT-4做了什么(patriotic研究),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:ptst分析法,ptst分析法,srtp研究报告,ptst分析法,ptst分析法,srtp研究报告,chartted研究,chartted研究,内容如对您有帮助,希望把文章链接给更多的朋友!

前脚刚研究了一轮GPT3.5,OpenAI很快就升级了GPT-4,整体表现有进一步提升。追赶一下潮流,研究研究GPT-4干了啥。

本文内容全部源于对OpenAI公开的技术报告的解读,通篇以PR效果为主,实际内容不多。主要强调的工作,是“Predictable Scaling”这个概念。

ChatGPT研究分析:GPT-4做了什么(patriotic研究)

上一版ChatGPT的主要挑战是,因为模型的训练量极大,很难去进行优化(ChatGPT是fine-tuning的模式)。因此,OpenAI希望能够在模型训练初期,就进行优化,从而大幅提升人工调优迭代的效率。而想要进行调优,就得知道当前模型的效果如何。因此,这个问题就被转化为了:如何在模型训练初期,就能够预测最终训练完成后的实际效果。

从结果来看,ChatGPT实现了,仅仅执行千分之一到万分之一的训练量,就可以大致预测模型的结果。

实现原理相对简单,就是在某一个模型的不同训练阶段进行实际效果测量,然后做函数拟合,发现符合幂等曲线。然后再基于采样值,测算一下幂等函数的相关参数,下一轮就可以只进行少量训练,就去预测最终效果了。

至于其他效果上的优化,OpenAI没有进一步解读原理,但整体应该还是基于“训练-奖励”的优化模型,去生成更针对性的奖励模型(比如增加法律、安全之类的奖励判断),以实现更优的效果。

原版内容如下:

3 Predictable ScalingA large focus of the GPT-4 project was building a deep learning stack that scales predictably. The primary reason is that for very large training runs like GPT-4, it is not feasible to do extensive model-specific tuning. To address this, we developed infrastructure and optimization methods that have very predictable behavior across multiple scales. These improvements allowed us to reliably predict some aspects of the performance of GPT-4 from smaller models trained using 1, 000× – 10, 000× less compute.3.1 Loss PredictionThe final loss of properly-trained large language models is thought to be well approximated by power laws in the amount of compute used to train the model [35, 36, 2, 14, 15].To verify the scalability of our optimization infrastructure, we predicted GPT-4’s final loss on our internal codebase (not part of the training set) by fitting a scaling law with an irreducible loss term (as in Henighan et al. [15]): L(C) = aCb + c, from models trained using the same methodology but using at most 10,000x less compute than GPT-4. This prediction was made shortly after the run started, without use of any partial results. The fitted scaling law predicted GPT-4’s final loss with high accuracy (Figure 1).3.2 Scaling of Capabilities on HumanEvalHaving a sense of the capabilities of a model before training can improve decisions around alignment, safety, and deployment. In addition to predicting final loss, we developed methodology to predict more interpretable metrics of capability. One such metric is pass rate on the HumanEval dataset [37], which measures the ability to synthesize Python functions of varying complexity. We successfully predicted the pass rate on a subset of the HumanEval dataset by extrapolating from models trained with at most 1, 000× less compute (Figure 2).For an individual problem in HumanEval, performance may occasionally worsen with scale. Despite these challenges, we find an approximate power law relationship −EP [log(pass_rate(C))] = α∗C−kwhere k and α are positive constants, and P is a subset of problems in the dataset. We hypothesize that this relationship holds for all problems in this dataset. In practice, very low pass rates are difficult or impossible to estimate, so we restrict to problems P and models M such that given some large sample budget, every problem is solved at least once by every model.We registered predictions for GPT-4’s performance on HumanEval before training completed, using only information available prior to training. All but the 15 hardest HumanEval problems were split into 6 difficulty buckets based on the performance of smaller models. The results on the 3rd easiest bucket are shown in Figure 2, showing that the resulting predictions were very accurate for this subset of HumanEval problems where we can accurately estimate log(pass_rate) for several smaller models. Predictions on the other five buckets performed almost as well, the main exception being GPT-4 underperforming our predictions on the easiest bucket.Certain capabilities remain hard to predict. For example, the Inverse Scaling Prize [38] proposed several tasks for which model performance decreases as a function of scale. Similarly to a recent result by Wei et al. [39], we find that GPT-4 reverses this trend, as shown on one of the tasks called Hindsight Neglect [40] in Figure 3.We believe that accurately predicting future capabilities is important for safety. Going forward we plan to refine these methods and register performance predictions across various capabilities before large model training begins, and we hope this becomes a common goal in the field.

本文链接地址:https://www.jiuchutong.com/zhishi/298684.html 转载请保留说明!

上一篇:博客管理系统(前端页面设计)(博客管理系统开题报告)

下一篇:跟我学Python图像处理丨带你入门OpenGL(用python处理图像)

  • 微信删除好友怎么加回来(微信删除好友怎么恢复找回)

    微信删除好友怎么加回来(微信删除好友怎么恢复找回)

  • tl-wdr6500是千兆路由器吗

    tl-wdr6500是千兆路由器吗

  • WPS表格怎么插入行(wps表格怎么插pdf图片)

    WPS表格怎么插入行(wps表格怎么插pdf图片)

  • 怎么取消微信视频号功能(怎么取消微信视频美颜功能)

    怎么取消微信视频号功能(怎么取消微信视频美颜功能)

  • 麒麟5g芯片有哪些(麒麟5gsoc芯片)

    麒麟5g芯片有哪些(麒麟5gsoc芯片)

  • QQ自助冻结几天解除(qq自助冻结是人为吗)

    QQ自助冻结几天解除(qq自助冻结是人为吗)

  • 路由器好坏会影响网速吗(路由器好坏会影响有线网速吗)

    路由器好坏会影响网速吗(路由器好坏会影响有线网速吗)

  • 手机克隆是干什么用的(手机克隆是什么)

    手机克隆是干什么用的(手机克隆是什么)

  • vivox27语音唤醒功能怎么打开(vivox27手机语音唤醒)

    vivox27语音唤醒功能怎么打开(vivox27手机语音唤醒)

  • 苹果手机只有2g网络怎么办(苹果手机只有2g信号怎么回事)

    苹果手机只有2g网络怎么办(苹果手机只有2g信号怎么回事)

  • 快手怎样编辑已发布的作品(快手怎样编辑已读信息)

    快手怎样编辑已发布的作品(快手怎样编辑已读信息)

  • 苹果11一晚上掉电多少正常(苹果11一晚上掉电20%正常吗)

    苹果11一晚上掉电多少正常(苹果11一晚上掉电20%正常吗)

  • 抖音可以永久注销吗(抖音永久注销后回复还在吗)

    抖音可以永久注销吗(抖音永久注销后回复还在吗)

  • 7天网络怎么授权(七天网络怎么授权)

    7天网络怎么授权(七天网络怎么授权)

  • 苹果x怎么关掉碰屏就亮(苹果X怎么关掉盲人模式)

    苹果x怎么关掉碰屏就亮(苹果X怎么关掉盲人模式)

  • 苹果手机录音功能在哪里(苹果手机录音功能怎么调出来的)

    苹果手机录音功能在哪里(苹果手机录音功能怎么调出来的)

  • word文档格式规范有(word文档格式规范案例)

    word文档格式规范有(word文档格式规范案例)

  • 微信收款码在哪里弄(微信收款码在哪里申请免费的)

    微信收款码在哪里弄(微信收款码在哪里申请免费的)

  • 拼多多刮红包0.1的原因(拼多多红包最后0.01刮卡)

    拼多多刮红包0.1的原因(拼多多红包最后0.01刮卡)

  • x23幻彩版有防水功能吗(x23幻彩版防误触在哪里设置)

    x23幻彩版有防水功能吗(x23幻彩版防误触在哪里设置)

  • vivoy3是哪年出的(vivoy3什么时候出的)

    vivoy3是哪年出的(vivoy3什么时候出的)

  • 网易云连续包月怎么取消(网易云连续包月是多久)

    网易云连续包月怎么取消(网易云连续包月是多久)

  • wlan和wifi的区别介绍(wlan和蜂窝版的区别)

    wlan和wifi的区别介绍(wlan和蜂窝版的区别)

  • 目标检测:Faster-RCNN算法细节及代码解析(目标检测yolo算法)

    目标检测:Faster-RCNN算法细节及代码解析(目标检测yolo算法)

  • python中的函数(1)(python中的函数库)

    python中的函数(1)(python中的函数库)

  • 增值税发票综合服务平台验证口令失败
  • 计税依据什么意思
  • 处置无形资产属于经营活动吗
  • 半成品怎么结转到成品
  • 如何做好服务 服务行业
  • 企业出资怎么填写
  • 虚开增值税发票的涉税风险如何防范
  • 借别人钱收据怎么写
  • 发票冲红增值税怎么申报
  • 物业公司收物业费如何入账
  • 专票上没写开户行合规吗
  • 年终奖和当月工资合并申报税
  • 公司注销后虚开发票
  • 租的厂房再转租怎么开票抵扣
  • 公司业务招待费占比
  • 罚款收入增值税税率是多少
  • 出售报废电脑要交什么税
  • 企业取得的哪些成果
  • 企业所得税减免政策
  • 房地产企业的非流动资产周转率在多少以上
  • 企业购买原材料生产时企业还没有赚到钱
  • 企业成本费用包含
  • 酒店购买矿泉水再卖给客人怎么处理
  • ukey开票界面
  • 苹果电脑安装中国银行控件用不了
  • 税负率的计算方法公式
  • 本期填写的适用3减1政策的本期发生额大于
  • 大白菜u盘启动后黑屏
  • PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题
  • 支付给代理机构的手续费计入
  • 可转换债券的特点有哪些?
  • 将现金存入银行,登记银行存款日记账的依据一般是
  • php 模拟post
  • msoxmled.exe是什么软件
  • 受托方代扣代缴的消费税计入什么科目
  • ldpc论文
  • pytorch训练函数
  • 原生php和框架php的区别
  • 预缴税款怎么做会计分录
  • 服务型公司营业执照图片
  • 自由会计服务类工作者
  • 织梦官网
  • 税务机关代开的增值税发票要加盖发票专用章吗?
  • 发票勾选后什么时候开票
  • 现金结算的特点和概念
  • SQL Server解析XML数据的方法详解
  • SQLServer 2008 Merge语句的OUTPUT功能
  • 用sql语言
  • 资本公积可以转增资本因此称之为准资本
  • 没有参加会计继续教育会怎样
  • 企业所得税税款可以税前扣除吗
  • 记账错误是什么意思
  • 承包费会计处理
  • 房产评估增值是什么意思
  • 应付账款数字太大咋办
  • 建筑安装行业都需要什么资格证书
  • 收到股权认购款怎么做账
  • 代收第三方补偿什么意思
  • 红字发票可以跨月入账吗
  • 上海残疾人就业保障金计算公式
  • 固定资产折旧是什么意思
  • sql server的go
  • sql语句提取字符串中数字
  • 国内的windows是正版吗
  • windowsxp网络ip设置
  • SUSE Linux Enterprise Server 11 SP3安装教程详解
  • windows10预览版安装
  • ubuntu20.04怎么用
  • 盗版win7怎么升级
  • win7系统怎么更改存储位置
  • win10画图功能
  • [置顶]电影名字《收件人不详》
  • unity3d常用代码总结
  • nodejs 异步任务队列
  • node.js中的http.request.end方法使用说明
  • jquery自动完成插件
  • javascript中的类型转换
  • python文件描述符
  • jQuery+Ajax实现限制查询间隔的方法
  • 税票开票员的职责
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设