位置: IT常识 - 正文

ChatGLM-6B (介绍相关概念、基础环境搭建及部署)

编辑:rootadmin
ChatGLM-6B (介绍相关概念、基础环境搭建及部署) 文章目录前言一、ChatGLM-6B是什么?二、安装虚拟的python环境1.下载2.安装3.设置国内源(危险)4.虚拟环境使用简介三、部署ChatGLM-6B1. clone代码2. 运行1.创建虚拟环境2.装包2.1 找到合适的pytorch版本2.1 安装依赖2.2 验证pytorch是否为GPU版本3.运行四、部署过程中遇到的问题1. 问题12.问题23.问题34.问题4总结参考文章前言

推荐整理分享ChatGLM-6B (介绍相关概念、基础环境搭建及部署),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!

最近chatgpt比较火,正好看到国内有个类似开源的框架,那不得试试、

一、ChatGLM-6B是什么?

ChatGLM-6B是清华大学知识工程和数据挖掘小组(Knowledge Engineering Group (KEG) & Data Mining at Tsinghua University)发布的一个开源的对话机器人。根据官方介绍,这是一个千亿参数规模的中英文语言模型。并且对中文做了优化。本次开源的版本是其60亿参数的小规模版本,约60亿参数,本地部署仅需要6GB显存。

二、安装虚拟的python环境

ChatGLM-6B 代码中有一些python3.7支持的语法,所以要有python3.7+ 的环境。我们使用conda来管理python环境 conda分为anaconda和miniconda。anaconda是包含一些常用包的版本,miniconda则是精简版.本文中我们将使用anaconda

1.下载

可以在官网中找到自己需要的版本进行下载,如果你系统也是ubutu 64位的,也可以使用我下载的版本进行安装

2.安装

在上一步下载的安装包同级,使用命令行执行以下命令

# 此处需写实际下载名称bash Anaconda3-2023.03-Linux-x86_64.sh

然后根据提示操作即可

3.设置国内源(危险)

可以参考此文章。当然,如果不换源可以顺利装所有的包的话,尽量不要执行此操作。我就因为换了源,导致后边出了很多小问题。

4.虚拟环境使用简介# 创建虚拟环境conda create -n xxx python=3.8# 进入虚拟环境conda activate xxx# 退出当前虚拟环境conda deactivate# 查看本地虚拟环境conda info --env# 删除虚拟环境conda remove -n xxx --all三、部署ChatGLM-6B1. clone代码git clone https://github.com/THUDM/ChatGLM-6B.git2. 运行1.创建虚拟环境# 新建chatglm环境conda create -n chatglm python=3.8# 激活chatglm环境conda activate chatglm2.装包2.1 找到合适的pytorch版本

我们可以通过以下命令查看自己的cuda及cuda驱动版本

nvidia-smiChatGLM-6B (介绍相关概念、基础环境搭建及部署)

我们可以看到,cuda版本是11.5,驱动版本是493.44,然后我们去官网寻找合适的pytorch装包指令,官网链接如下: https://pytorch.org/get-started/locally/ https://pytorch.org/get-started/previous-versions/ 如果找不到对应版本的话,可以参考此链接,通过驱动找到合适的cuda toolkit版本,然后再去官网寻找合适的装包指令 注:驱动是向下兼容的,其决定了可安装的CUDA Toolkit的最高版本。

2.1 安装依赖# 根据上一步找到的安装指令进行安装:pip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 torchaudio==0.12.1 --extra-index-url https://download.pytorch.org/whl/cu113# 安装gradio用于启动图形化web界面pip install gradio# 安装运行依赖pip install -r requirement.txt2.2 验证pytorch是否为GPU版本import torchtorch.cuda.is_available() ## 输出应该是True3.运行

在运行前,我们需要修改一些文件内容

# web_demo.py# 1. 新增mirror='https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models,下载模型使用清华源tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True, mirror='https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models')model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True, mirror='https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models').half().cuda()# 2. 增加server_name和server_port参数demo.queue().launch(share=True,server_name="0.0.0.0",server_port=9234)四、部署过程中遇到的问题1. 问题1

报错如下:

ERROR: Could not find a version that satisfies the requirement protobuf<3.20.1,>=3.19.5 (from versions: none)ERROR: No matching distribution found for protobuf<3.20.1,>=3.19.5

原因及解决方案: 是因为上一步换了国内的镜像源,所以只需要指定装包路径即可l sls

pip install -r requirements.txt -i https://pypi.Python.org/simple/2.问题2

报错如下:

ImportError: Using SOCKS proxy, but the 'socksio' package is not installed. Make sure to install httpx using `pip install httpx[socks]`.

原因及解决方案: 是因为我在命令行设置了“科学上网”,关掉即可

# 因为我设置的是临时的,所以在命令行输入如下代码即可unset http_proxyunset https_proxy3.问题3

报错如下:

RuntimeError: CUDA out of memory. Tried to allocate 128.00 MiB (GPU 0; 7.93 GiB total capacity; 7.40 GiB already allocated; 53.19 MiB free; 7.40 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

原因及解决方案: 默认情况下,模型以 FP16 精度加载,运行上述代码需要大概 13GB 显存。如果你的 GPU 显存有限,可以尝试以量化方式加载模型,使用方法如下:

# int4精度加载,需要6G显存# web_demo.pymodel = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().quantize(4).cuda()4.问题4

报错如下:

RuntimeError: Library cudart is not initialized

原因及解决方案: 我是用conda管理的环境,此时应该是cudatoolkit有问题,参考此issue

# 使用conda安装cudatoolkitconda install cudatoolkit=11.3 -c nvidia总结

例如:整个部署其实最难的应该还是环境了,虽然项目的README写的比较简单,但是真实搭建起来确实各种问题,希望此文章能给大家一些帮助吧。

参考文章

清华大学开源中文版ChatGPT模型——ChatGLM-6B发布 PyTorch、CUDA Toolkit 及显卡驱动版本对应关系 验证pytorch是否为GPU版本

本文链接地址:https://www.jiuchutong.com/zhishi/283910.html 转载请保留说明!

上一篇:显示器有必要买4k高分辨率吗?高分辨显示器值得(显示器有必要买240hz吗)

下一篇:最高超频记录的CPU是什么(最强超频)

  • 小规模免收增值税 其他收益怎么算
  • 增值税附加税是几个点
  • 所得税视同销售行为有哪些
  • 发票号码不一致可以报销吗
  • 单位支付给职工的一次性补助金怎么入账
  • 一般纳税人转登记为小规模纳税人
  • 企业营改增后的会计处理有何变化
  • 嵌入式软件产品增值税即征即退
  • 公司收到现金货款需要存入银行吗
  • 把公司的设备弄坏了怎么办
  • 营改增后场地租赁税率
  • 职工福利费在期间费用表中怎么填
  • 增值税减免明细表怎么填
  • 只开增值税普通发票,需要申报税务吗
  • 电话费开专票可抵扣吗
  • 2017年金税盘服务费已全额减免,勾选系统怎么处理
  • 一般纳税人为其他公司制作标书怎么缴税?
  • 递延所得税资产怎么计算
  • 异地预缴本地申报流程
  • 开专票需要哪些东西
  • 租房合同开发票的金额要和合同一致吗
  • 库存现金可以做中转科目嘛为什么
  • 年薪制12个月的计算公式
  • 认缴出资未缴纳公司可以减资吗
  • 如何关闭edge浏览器下载保护
  • 设置ahci模式后,开不了机
  • 固定资产汽车抵扣新政策
  • 医院的重要
  • 贴现息等于什么
  • 文竹怎么养才能更旺盛浇点醋
  • 【强化学习探索01】Win10 下gym安装
  • vue框架基础知识
  • php正则匹配中文
  • yolov5画框重复、大框包小框问题解决,c++、python代码调用onnx
  • 存在现金折扣的会计核算
  • 信息技术服务所得税税负率多少
  • 支付宝提取到公积金账户
  • 税费退库怎么做账
  • 期初库存和期末库存可以修改吗
  • 数据库双亲结点
  • 小规模纳税人批发零售税率
  • 出口退税一般风险商品
  • 长期股权投资转让收益需要交增值税吗
  • 工会应付下级经费
  • 小规模纳税人退税账务处理
  • 卖二手车怎么做账务处理
  • 银行利息收入如何记账
  • 已抵扣进项税额转出的会计分录怎么做
  • 拆迁房视同销售成本可以抵减吗?
  • 商誉的算法
  • 最低标准买社保公积金个人缴纳多少钱
  • 会计计量属性主要包括()
  • 发票遗失重开需要收费吗?
  • 工程款结清确认书模板
  • 公司被冻结
  • 分公司可以设立公司吗
  • 为员工买的商业保险怎么做账
  • 短期投资怎么记账
  • 谈一谈有关阅读的
  • 手动去除扁桃体结石教程
  • 怎么把mac系统的文件导出
  • easybcd修复ubuntu
  • 怎么u盘装系统win10
  • win8 怎么样
  • window系统怎么取消开机密码
  • win8网络图标不显示
  • linux查看mtime的命令
  • linux kinit
  • cent linux
  • window10耳机有电流
  • linux系统开发环境
  • unity urp 性能
  • 用kotlin开发android
  • unity unity3d
  • php开机启动
  • 工作笔记范文100篇简短
  • thinkphp withjoin
  • 中石化一键加油周几有优惠
  • 个人所得税没申报会退吗
  • 补缴往年土地使用税怎么做分录
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设