位置: IT常识 - 正文

深度学习大模型框架的简单介绍(ChatGPT背后原理的基本介绍)

发布时间:2024-01-17
深度学习大模型框架的简单介绍(ChatGPT背后原理的基本介绍) 一、引言

推荐整理分享深度学习大模型框架的简单介绍(ChatGPT背后原理的基本介绍),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!

主流的深度学习基础框架有很多:tensorflow、pytorch、paddlepaddle、keras、caffee等等。

随着以Bert、GPT系列为代表的NLP预训练语言模型的诞生,对于NLP的语言模型研究走向了大规模预训练之路。

在CV领域,随着GAN、Diffusion Model、Transformers与传统CV技术的结合,也逐步走向了大模型之路,DALL·E2的爆炸效果也是基于“大力出奇迹”。

在多模态领域,CLIP等模型参数也很大。

这似乎预示着,只有“大力出奇迹”才是强人工智能的未来之路。像当下异常火爆的ChatGPT的背后原理则是超大规模模型GPT-3采用STF+RLHF(Supervised Fine-Tuning Reinforcement Learning Human Feedback)进行训练得来。

因此,基于基础深度学习框架,学习了解大模型深度学习框架是必不可少的。而这方面的研究,更多的是系统方向和深度学习的结合。

二、深度学习系统方向发展简单介绍

深度学习在2014年之后,开始大火,缘由在于2012年,AlexNet模型引起的计算机视觉图像分类任务的变革方法。在此之后,DL领域很卷,模型相继很大,系统方向的研究也层出不穷。

2.1 参数服务器(Parameter Server)

论文地址:参数服务器:李沐 这个工作是李沐在2014年完成的工作,其核心在于提出一种数据并行(Data Parallel)的参数服务器,目的是使得大规模的机器学习模型能在工业界完成训练。

其意义在于:为之后大规模深度学习框架ZeRO提供了思路借鉴。

(后续会针对这篇论文进行精读,发一个博客,有兴趣的童鞋可以关注)

2.2 GPipe

论文地址:Gpipe:2019

这篇论文提出一个新的大规模深度学习框架。它采用一种流水线并行的方式,实现了更少显存的情况下训练了更大的模型。这些大模型包括语言模型和CV的一些模型。

其意义在于:提出一种流水线并行的方式,对大模型不同的层之间进行切片训练。

它有两个关键技术: (1)micro-batch 把L层的神经网络按层切开(层外),一共为K快。然后把每一块放到一个GPU上进行计算。如上图(b)所示。但这种方式,在时间层面上,和单卡训练的时间没啥区别。为了解决这个问题,可以对每个小批量的数据样本再进行切分成微批量(micro-batch),然后每个时刻只让一个微批量送入GPU中进行训练,如上图©所示。这样即可实现简单流水线并行。其中的Bubble形状只与GPU数量相关。若增加微批量的数目,则会进一步增加GPU的存储利用率。 (2)re-materialization(active checkpoint) 每层中间计算的梯度数据会占用大量的GPU显存。 实际上,梯队下降算法更新梯度时,是对参数W求偏导梯度。这里之所以要求y对x的偏导是因为,反向传播时,需要用到这个数值(通常称为:activation)。而这个数值在前向传播时若已求得,并保存到显存中,会加快反向传播的速率。但增大了内存使用量。

re-materialization技术是指在对L层大规模神经网络分为若干块后,对每个快连接的地方的网络层的相关前向传播梯度数据进行保存,而其他层则在反向传播时重新计算。(时间换空间)

这样会节省大量GPU显存。

使得在少量GPU或使用较少的显存能训练起来更大的模型。

重新计算占用总计算时间的三分之一。(暂未有论文论述原因)

其他的工作:PipeDream(微软的工作)

2.3 Megatron-LM (张量并行 TP)

论文地址:Megatron-LM:2019 该模型提出一种特殊的模型并行(Model Parallel)方法,即层内模型并行也叫张量并行(Tensor Parallel)。

该框架最大的贡献在于:开源+简单。

这导致后续的深度学习大模型开源框架都或多或少是在该框架基础上进行的改进和修整。 Megatron-LM框架只针对语言模型。主要是GPT、Bert、T5等模型。

对于Bert,该框架对其层归一化做了上图的修改,才能使得大规模Bert模型能得到收敛。

深度学习大模型框架的简单介绍(ChatGPT背后原理的基本介绍)

对于张量并行,其切分方法只有两种,一种是对MLP的切分,一种是对Self-Attention的切分。

2.4 Zero (Offload Infinity)

论文地址:ZeRO

该框架是在Megatron基础上构建,其开源框架为DeepSpeed

这是一个较为容易上手的大规模预训练语言模型框架。它不仅实现了ZeRO,还包括ZeRO Offload 及 ZeRO Infinity。

实际上,ZeRO采用的思想和参数服务器的思想基本一致,都是对超大规模深度神经网络模型在训练过程中,产生的参数、优化器状态、梯度等使用数据并行的方式,进而减少冗余,以使得更少的显存占用训练更大的模型。

ZeRO需要对三块数据进行数据并行优化: 优化器状态(Optimizer states) os 梯度数据(gradients) g 超参数数据(parameters) p

其中:Pos=ZeRO1、Pos+g=ZeRO2、Pos+g+p=ZeRO3

讲这三个数据之前要讲一个重点内容:混合精度训练(mixed-precision)

2.4.1 mixed-precision

nvidia的卡在半精度训练会更快点儿,即fp16位浮点数。

原因:在硬件上来说,每个bit都要对应硬件的计算逻辑单元,即物理的门来帮助运算当把正常的浮点运算从32位降到一半时,能剩下大量的物理门电路逻辑运算单元。意味着在相同尺寸的芯片上,则能放到更多的,能并行计算机的物理单元。所以,从计算密度角度来说,fp16要比fp32要高。

使用半精度训练的意思是指:对模型每个层的w(parameters)和中间结果数据的输入输出(activations)都是使用fp16进行训练的

w*x=y 这个运算过程都是fp16,但由于fp16的精度不够,导致会出现爆炸。即很小的数会变成0.这种情况在累计权重的时候会出现。权重是指不断的把梯度的东西加进来。如果,权重也是fp16的话,加半天也加不动,因此,在权重更新时,采用fp32进行的。

权重还有一个额外的fp32的复制,在做梯度更新时,需要使用fp32的精度进行计算,算完后再转为fp16,再参与前向传播和反向传播算法。

2.4.2 训练过程中维护的数据量计算

假设一个模型的参数占用的存储量是Y

则在前向传播和后向传播计算过程中的fp16的参数量(parameter)需要维护2Y(bytes),fp16的梯度(gradients)需要维护2Y(bytes)。

优化器(ADAM)需要维护三个fp32的数据(做梯度更新采用fp32的精度进行计算)。复制的参数量(parameter):4Y (bytes)、momentum (bytes)、variance (bytes)

这些一共是16Y的数据保存量。若一个GPT2(1.5B)模型训练起来,需要保存的数据量会扩大到1.5*16B的情况。

(后续会补充 Offload 和 Infinity的相关内容)

2.5 Pathways 2022

论文地址:Pathways:2022

基于谷歌的Tensorflow系列的大模型 引出Jeff Dean对下一代深度学习框架的预测:

多模态、稀疏、动态路由

2.6 InstructGPT

论文地址:InstructGPT

这个模型是ChatGPT背后的模型之一。当前ChatGPT模型的论文还没有出来,预计还需要几个月的时间。但参考这篇文章的核心思想已经可以确定ChatGPT是向哪个方向去发展了。

2.6.1 数据集采集

(1)雇佣一些工作人员去编写一些问题和对应答案的数据集。 (2)用第一批数据集训练第一个InstructGPT模型,然后再对相关问题再进行预测,基于此扩充更大的数据集。

2.6.1 Supervised Fine-Tuning (SFT) prompt

这个思想很简单,就是使用GPT-3去在人类标注的问答对上进行训练。当然也采用了prompt learning的思想。

2.6.1 RLHF (Reinforcement Learning Human Feedback)

简单来说,就是采用强化学习的方式,对某个问题的不同个答案进行排序。训练目标就是让模型预测出的排序和人类进行排序的答案一致。也被称为一种Reward Model。而这种反馈来自于人类。

三、总结

目前训练超大规模语言模型主要有两条技术路线:TPU + XLA + TensorFlow/JAX (Pathways)和 GPU + PyTorch + Megatron-LM + DeepSpeed。前者由Google主导,由于TPU和自家云平台GCP深度绑定,对于非Googler来说, 只可远观而不可把玩,后者背后则有NVIDIA、Meta、MS大厂加持,社区氛围活跃,也更受到群众欢迎。

本文链接地址:https://www.jiuchutong.com/zhishi/298493.html 转载请保留说明!

上一篇:Vue3中修改父组件传递到子组件中的值(全网少有)(vue修改父组件的值)

下一篇:程序员未来是不是会大量失业?(程序员未来会失业吗)

  • 手机上可以买彩票吗?怎么买呢(手机上可以买彩票刮刮乐吗)

    手机上可以买彩票吗?怎么买呢(手机上可以买彩票刮刮乐吗)

  • iqoo3的后盖材质是什么(iqoo3手机后盖是什么材质)

    iqoo3的后盖材质是什么(iqoo3手机后盖是什么材质)

  • 三星note10+5g怎么关机(三星note10+5g怎么开启5G网络设置)

    三星note10+5g怎么关机(三星note10+5g怎么开启5G网络设置)

  • 有线耳机怎么用(oppo手机扁口有线耳机怎么用)

    有线耳机怎么用(oppo手机扁口有线耳机怎么用)

  • 手机ip和闲鱼封号有关系吗(闲鱼被永久封号的手机登陆其他咸鱼账号会有影响吗)

    手机ip和闲鱼封号有关系吗(闲鱼被永久封号的手机登陆其他咸鱼账号会有影响吗)

  • qq精选照片栏怎么不见了(qq精选照片栏怎样隐藏不给别人看)

    qq精选照片栏怎么不见了(qq精选照片栏怎样隐藏不给别人看)

  • 苹果11掉电快是什么原因(苹果11掉电快是不是电池问题)

    苹果11掉电快是什么原因(苹果11掉电快是不是电池问题)

  • 表格弄到一半未响应(表格有一半看不到怎么弄)

    表格弄到一半未响应(表格有一半看不到怎么弄)

  • 抖音怎么才能不显示日期(抖音怎么才能不让熟人看到)

    抖音怎么才能不显示日期(抖音怎么才能不让熟人看到)

  • 怎么将两段音乐合并(怎么将两段音乐合成一段)

    怎么将两段音乐合并(怎么将两段音乐合成一段)

  • 抖音小店可以卖不同类目的产品吗(抖音小店可以卖淘宝的东西吗)

    抖音小店可以卖不同类目的产品吗(抖音小店可以卖淘宝的东西吗)

  • 华为areal10是什么型号(华为手机areal10)

    华为areal10是什么型号(华为手机areal10)

  • 华为tp保护膜要换掉吗(华为tp保护膜需不需要换钢化膜)

    华为tp保护膜要换掉吗(华为tp保护膜需不需要换钢化膜)

  • 下载mp3到u盘怎么下载(下载mp3到u盘怎么听不了)

    下载mp3到u盘怎么下载(下载mp3到u盘怎么听不了)

  • 微信朋友圈什么时候开始有的(微信朋友圈什么时候发看的人多)

    微信朋友圈什么时候开始有的(微信朋友圈什么时候发看的人多)

  • 华为jkmtl00型号是啥(华为jkmtl00型号手机照片删除后找回)

    华为jkmtl00型号是啥(华为jkmtl00型号手机照片删除后找回)

  • miui11息屏签名怎么设置(miui12锁屏签名在哪)

    miui11息屏签名怎么设置(miui12锁屏签名在哪)

  • ios13小圆点哪里开启(苹果ios13小圆点在哪里设置)

    ios13小圆点哪里开启(苹果ios13小圆点在哪里设置)

  • 苹果xsmax是全面屏吗(xsmax是不是全面屏)

    苹果xsmax是全面屏吗(xsmax是不是全面屏)

  • 红米k20有无线充电吗(红米k20无线充电)

    红米k20有无线充电吗(红米k20无线充电)

  • iphone录像功能不见了(iphone录像功能不见了怎么办)

    iphone录像功能不见了(iphone录像功能不见了怎么办)

  • 三星s10和s9+对比(三星s10和三星s9+哪个好)

    三星s10和s9+对比(三星s10和三星s9+哪个好)

  • 手机网络限速怎么解除(手机网络限速怎么办)

    手机网络限速怎么解除(手机网络限速怎么办)

  • history命令  显示与管理历史命令记录(windows history命令)

    history命令 显示与管理历史命令记录(windows history命令)

  • 期末未缴税额出现负数
  • 工会经费税前扣除比例是多少
  • 专项资金支出流程
  • 受托代销商品款是什么科目
  • 筹建期印花税退税分录
  • 营改增后销售租赁后的设备如何做税务处理?
  • 年底没计提年终奖,下一年发放要怎么做
  • 留存收益转增资本有什么好处
  • 未安装使用
  • 认证过的进项税怎么记账
  • 污泥处置费用怎么开票
  • 个人独资企业没有公司章程吗?
  • 企业以货币形式取得的收入
  • 进货会计凭证
  • 取得赔偿款的发票可以抵扣吗
  • 行政事业单位国有资产处置收入包括
  • 罚款费用报销单怎么写
  • 小规模企业所得税优惠政策最新2023
  • 资产负债表中其他流动资产怎么计算
  • 总公司与分公司的账务处理销售
  • 个税系统工资少报了怎么办
  • 补发上月工资如何计税
  • 苹果电脑安装中国银行控件用不了
  • 一般纳税人增值税申报表怎么填写
  • 公司装修待摊费怎么算
  • PHP:curl_setopt_array()的用法_cURL函数
  • 补缴增值税怎么做账
  • 工资薪金支出税前扣除
  • php使用js
  • 客户抽奖活动方案
  • linux的网络编程
  • 跨区域涉税事项报告表在哪里打印
  • php抓取网页图片
  • 基金公司做销售有前途吗
  • 在暴风雪中求生
  • yolov5map
  • 长期股权投资后续计量收到红利账务处理
  • 共管账户和联名账户
  • php中的this
  • python2 tkinter
  • 员工离职后个税申报系统如何操作
  • 残保金计提和缴纳分录
  • 其他业务收入不交增值税吗
  • sqlserver怎么把数据库导出来
  • PostgreSQL更新表时时间戳不会自动更新的解决方法
  • 预付卡账务处理在注会
  • 税务查账后如何结转
  • sql server数据表
  • 企业所得税是指哪些
  • 非广告性质的赞助支出调增还是调减
  • 先收票后收货
  • 差额征税的账务处理教学视频
  • 递延收益为什么不影响利润总额
  • 库存商品结转成本的金额怎么计算
  • 事业单位利息收入的正确分录
  • 支付临时工人的报酬属于工资薪金概算吗
  • 企业年底亏损怎么结转
  • 本票包括哪些
  • 从公司账户转给他人私户1万元以内需要扣多钱的税
  • 备用金分为哪两种
  • 单位伙房费用管理制度
  • 定额发票怎么领?
  • 企业研发支出的核算内容
  • 公司与公司之间劳务协议
  • 本年利润年末有余额怎么回事
  • 会计中的记账是什么意思
  • 远程连接sqlserver的数据库和本地连接时不一样
  • Windows Server 2008疑难杂症
  • 苹果电脑重新安装macos失败
  • linux wechat
  • linux 转换文件编码为utf8编码
  • SsAAD.exe - SsAAD是什么进程
  • win8系统怎样
  • 2016年首个熊猫电站是哪一个
  • unity中mathf
  • javascript中函数
  • unity人物换肤用什么方法
  • 刚开始学java的心得体会
  • 3d游戏引擎诞生
  • 税务机关落实六保六稳
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号