位置: IT常识 - 正文

Alpaca-Lora (羊驼-Lora): 轻量级 ChatGPT 的开源实现(对标 Standford Alpaca)(lama羊驼)

编辑:rootadmin
Alpaca-Lora (羊驼-Lora): 轻量级 ChatGPT 的开源实现(对标 Standford Alpaca) Alpaca-Lora (羊驼-Lora): 轻量级 ChatGPT 的开源实现(对标 Standford Alpaca)文章目录Alpaca-Lora (羊驼-Lora): 轻量级 ChatGPT 的开源实现(对标 Standford Alpaca)总览前言(与正文可能无关,可以忽略)LoRA 简要介绍各类资源Alpaca-Lora Colab 体验本地安装环境准备运行 generate.py小结总览

推荐整理分享Alpaca-Lora (羊驼-Lora): 轻量级 ChatGPT 的开源实现(对标 Standford Alpaca)(lama羊驼),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:羊驼官方,adanza羊驼,alpacasa羊驼,asoul羊驼,羊驼 lama alpaca,羊驼 lama alpaca,alpacasa羊驼,羊驼 lama alpaca,内容如对您有帮助,希望把文章链接给更多的朋友!

本文介绍 Alpaca-Lora (羊驼-Lora),可以认为是 ChatGPT 轻量级的开源版本,它使用 Lora (Low-rank Adaptation) 技术在 Meta 的 LLaMA 7B 模型上微调,只需要训练很小一部分参数就可以获得媲美 Standford Alpaca 模型的效果;本文重点在它的本地安装方法…

前言(与正文可能无关,可以忽略)

前段时间介绍了 Stanford Alpaca (羊驼):ChatGPT 学术版开源实现,感觉大家热情高涨,可能 Stanford Alpaca 团队也感受到了这些热情,在线体验地址也暂时关闭了。我看 Stanford Alpaca 的训练代码已经开源,如果要训练的话,需要向 Meta 提交 LLaMA 的申请问卷,目前我已提交,在等 Meta 的邮件回复。

等待过程中惊奇的发现 Alpaca-LoRA: Low-Rank LLaMA Instruct-Tuning 项目,它居然可以直接访问 LLaMA-7B 模型!经过一番折腾,终于在本地成功部署,效果如下:

左边红框我要它输出一段 Python 代码,右边红框中它实现了一个加法函数,效果不错!可惜我 GPU 显存太小,只有 8G,模型参数量化后虽然可以成功加载,但是做预估时会报奇怪的错误,所以我最后一刻决定用 CPU 运行。。。先把问题解决再考虑后续优化。

本文主要介绍一下本地安装的方法。文中列出的资源可以在 “各类资源” 这一节中找到。

LoRA 简要介绍

关于 Alpaca-Lora 和 Stanford Alpaca 模型的区别,我先入为主的印象是,Stanford Alpaca 是在 LLaMA 整个模型上微调,而 Alpaca-Lora 则是利用 Lora 技术(LoRA: Low-Rank Adaptation of Large Language Models),在冻结原模型 LLaMA 参数的情况下,通过往模型中加入额外的网络层,并只训练这些新增的网络层参数。由于这些新增参数数量较少,这样不仅 finetune 的成本显著下降,还能获得和全模型微调类似的效果。想想最近 Stable Diffusion 文生图扩散模型(Stable Diffusion 原理介绍与源码分析(一、总览))的效果,在 LoRA 的加持下,可以生成很高质量的图片。

LoRA 的结构如下:

蓝色模块是原模型,而橙色模块则是新增网络层,通过控制参数 r 的大小,可以有效减少新增网络层的参数。

各类资源Alpaca-Lora 地址:https://github.com/tloen/alpaca-loraStandford Alpaca 地址:https://github.com/tatsu-lab/stanford_alpacaLora 的论文地址:https://arxiv.org/abs/2106.09685LLaMA-7B-HF 模型地址:https://huggingface.co/decapoda-research/llama-7b-hfLora 参数地址:https://huggingface.co/tloen/alpaca-lora-7b如何优雅的下载huggingface-transformers模型: https://zhuanlan.zhihu.com/p/475260268Alpaca-Lora Colab 体验

如果想在线快速体验,可以使用 Colab,打开 Alpaca-Lora 项目 Github 主页,点击如下红框给出的链接即可。

网速极快,体验贼好,免去了本地安装的一切烦恼。。。

本地安装环境准备

虽然 README 文件中说使用 pip install -r requirements.txt 就 OK 了,但是我还是决定用 conda 创建一个虚拟环境,environment.yaml 文件如下:

name: alpacachannels: - pytorch - defaultsdependencies: - python=3.8.5 - pip=20.3 - cudatoolkit=11.3 - pytorch=2.0.0 - numpy=1.19.2 - pip: - datasets - loralib - sentencepiece - accelerate - bitsandbytes - gradio - appdirs - -e git+https://github.com/huggingface/transformers.git@main#egg=transformers - -e git+https://github.com/huggingface/peft.git@main#egg=peft

然后使用如下命令激活:(顺便吐槽一句,master 分支如今写成 main 分支,哈哈)

conda env create -f environment.yamlconda activate alpaca

激活后,可以再执行 pip install -r requirements.txt 进行 double check。

运行 generate.pyAlpaca-Lora (羊驼-Lora): 轻量级 ChatGPT 的开源实现(对标 Standford Alpaca)(lama羊驼)

正常情况下,如果有超过 8G 的 GPU 显存,并且网络之类的都相当 good 的话,那么直接运行 python generate.py 就能成功。

但这篇文章之所以有存在的必要,就是因为遇到太多不正常的情况😂😂😂

首先是模型参数的下载,包括 LLaMA-7B-HF 大模型(地址:https://huggingface.co/decapoda-research/llama-7b-hf)以及 Lora 参数 (地址:https://huggingface.co/tloen/alpaca-lora-7b),下载报 HTTP Requests 之类的错误。

我参考 《如何优雅的下载huggingface-transformers模型》(地址:https://zhuanlan.zhihu.com/p/475260268)一文,安装 huggingface_hub 进行模型下载,速度非常快,执行如下命令下载模型:

>>> from huggingface_hub import snapshot_download>>> snapshot_download(repo_id="decapoda-research/llama-7b-hf")

结果如下:

不过快下载完的时候报错中断,我把上面的命令重新执行一次,就能正常接着下载:

模型下载成功后,终端会输出模型的保存地址,可以使用 stat -Lc "%n %s" * 命令大致看下各文件大小有没有缺斤少两的,和 Hugging Face 上的模型大小简单对比一下:

该命令中, -L 表示对 soft link 进行处理,-c "%n %s" 指定输出格式,其中 %n 表示文件的名字,%s 表示文件大小,我看着文件大小符合预期。

别忘了 LoRA 模型哈: 执行 snapshot_download(repo_id="tloen/alpaca-lora-7b") 下载 Lora 参数。

然后接着运行 generate.py,可是在如下代码报错:

直接注释即可。

解决上述问题后,我使用 8G 的 GPU 运行,仍然会在中途报 ZeroDivisionError: integer division or module by zero:

我是通过去修改 accelerate 这个包的源码避开这个问题的,需要简单读一下 get_max_memory() 函数的实现。最后运行成功界面如下:

不过也注意到显存快到极限了。因此就算避开了上述问题,由于 GPU 显存天然的限制(就像游戏中要你氪金,你偏不氪,那么体验肯定不会好),后面再其他地方仍会报错,我尝试解决无果,最终决定在 CPU 上运行…

再贴一次成功后的画面:

小结

本文介绍了 ChatGPT 轻量级的开源版本 Alpaca-Lora (羊驼-Lora),它使用 Lora (Low-rank Adaptation) 技术在 Meta 的 LLaMA 7B 模型上微调,只需要训练很小一部分参数就可以获得媲美 Standford Alpaca 模型的效果。此外还较为详细的介绍了其在本地安装的方法。

经此一役,愈发感慨 GPU 的重要性,哪怕多给我 1G,也不至于如此窘迫。为了省出一点显存资源,我把其他能关闭的进程都关闭了,还得去 debug 之类的… 当初想着自己不玩大型游戏,觉得 8G 够用了… 人类对算力的需求是永无止境的。好好加班,攒信仰!

(对了,可以在微信中搜索 “珍妮的算法之路” 或者 “world4458” 关注我的微信公众号, 及时获取最新原创技术文章更新。。。)

本文链接地址:https://www.jiuchutong.com/zhishi/297550.html 转载请保留说明!

上一篇:【1】从零开始学习目标检测:YOLO算法详解(小说《从零开始》)

下一篇:0.96寸OLED显示汉字,数字,英文,图片,GIF动画+取模软件使用+代码解析(0.96寸OLED显示汉字)

  • 什么企业的纳税最多
  • 分公司可以在银行开户吗
  • 后期装修改造费用计入什么科目
  • 企业筹集资金的最常见及最主要的方式是()
  • 所得税补缴怎么回事
  • 抵扣认证的发票开红字有影响吗
  • 增值税抵扣可以跨月吗
  • 收到银行转来的进账通知单,上月的销货款
  • 建造普通标准住宅出售,增值税超过扣除金额的
  • 应交税费消费税分录
  • 计提的工会经费怎么做账
  • 这个月只有进项没有销项
  • 应付利息与应付利息区别
  • 当地预缴2%什么时候缴纳
  • 如何查询进项发票是否作废
  • 税务局开租赁发票
  • 即征即退增值税政策
  • 关于非上市公司的法律
  • 平销返利怎么开票入账
  • 临时工怎样做账
  • 政府收取的工程物资
  • 企业不动产如何带抵押转让
  • 境外取得收入要不要交企业所得税
  • 采购开票税率
  • 少计提增值税0.01计入营业外
  • 医疗废物处置费是什么意思
  • 购入固定资产如何折旧
  • android_app.intro
  • 特卡波小镇旅游攻略
  • 退休返聘人员是否享受工会福利
  • 一键部署web应用
  • java webflux
  • 写一个简单的php程序代码
  • 一次开票分期确认怎么弄
  • 小企业短期借款科目的贷方登记
  • 城市道路占用费的收费标准
  • 销售产品用什么词形容
  • python如何开发系统
  • 匿问我答查人
  • 房产中介收取的贷款服务费合不合法
  • 现金发放工资会计科目怎么写
  • 进项税额转出更正申报
  • 电脑填制记账凭证合计数前的符号怎么输入
  • 测绘费 土地增值税
  • 一般纳税人季报怎么填
  • 应收账款和应付账款属于什么科目
  • 建行E信通贴现需要发票吗
  • 劳务公司到外地需要交的税
  • 跨月报销的算当月还是上个月的
  • 施工一个月多少钱
  • 期初应收账款对应什么科目试算平衡
  • 土地出让金抵减增值税
  • 小规模红冲发票怎么做分录
  • 电子增值税发票样本
  • 收承兑汇票的利息怎么算
  • 企业向福利院捐款属于 公共关系
  • 合同没签定金可以退的吗
  • 住宿费开的增值税专用发票怎么记账
  • 跨年取得的发票
  • 企业所得税预缴2‰
  • 定额的餐饮发票
  • mysql中排序规则是什么意思
  • sqlserver模糊查询不用like
  • sql中的非逻辑
  • 监控iphone软件
  • 苹果电脑win10系统打不开
  • 中文版windows7的安装方式
  • win10系统如何删除账户
  • 修改centos的ip
  • 关于windows的开始菜单,叙述错误的是
  • linux free 命令
  • Win10 Mobile build 10586.338安装/上手体验视频
  • 一起回顾一下本周我们的读书生活
  • linux如何使用
  • 关于减肥的好方法
  • unity3d c语言
  • vue异步加载第三方库
  • android检测网络差
  • 2022年国家标准公文格式
  • 公司买车购置税怎么做账
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设