位置: IT常识 - 正文
推荐整理分享对 ChatGLM-6B 做 LoRA Fine-tuning,希望有所帮助,仅作参考,欢迎阅读内容。
文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!
ChatGLM-6B 是一个支持中英双语的对话语言模型,基于 GLM (General Language Model)。它只有 62 亿个参数,量化后最低 (INT4 量化) 只需要 6GB 的显存,完全可以部署到消费级显卡上。在实际使用这个模型一段时间以后,我们发现模型的对话表现能力确实非常不错。那么,基于这个模型做 Fine-tuning 就非常有价值了。
上一篇:终于,OpenAI开放ChatGPT API,成本直降90%,百万token才2美元(open开放的意思吗)
下一篇:客户端会话跟踪技术 Cookie 浅谈(实现会话跟踪的两种方式)
友情链接: 武汉网站建设