位置: IT常识 - 正文
推荐整理分享ChatGPT开源平替——OpenChatKit(前OpenAI团队打造)(开源cti),希望有所帮助,仅作参考,欢迎阅读内容。
文章相关热门搜索词:pingcode 开源,开源 pki,开源 pki,ipc开源,plato 开源,开源ippbx,开源ippbx,开源ipam,内容如对您有帮助,希望把文章链接给更多的朋友!
❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊😊,后续会继续输入更多优质内容❤️
👉有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博相关......)👈
(封面图由ERNIE-ViLG AI 作画大模型生成)
ChatGPT开源平替——OpenChatKit(前OpenAI团队打造)OpenChatKit是一个由前OpenAI研究员共同打造的开源聊天机器人平台。它包含了训练好的大型语言模型、定制配方和可扩展的检索系统,可以帮助用户快速构建高精度、多功能的聊天机器人应用。
其中,最核心的组件是一个经过微调的、具有200亿参数的语言模型——GPT-NeoXT-Chat-Base-20B。这个模型基于EleutherAI的GPT-NeoX模型,重点调整了多轮对话、问答、分类、提取和摘要等多项任务,并使用了4300万条高质量指令进行训练。这使得OpenChatKit在处理聊天对话时可以提供高精度、流畅的回答。
除此之外,OpenChatKit还提供了定制配方的功能,可以帮助用户根据自己的数据集微调模型,以提高模型在特定任务上的表现。另外,该平台还提供了可扩展的检索系统,可以从文档存储库、API或实时更新信息源等多个来源中检索信息,以提供更全面的回答。
OpenChatKit详细介绍OpenChatKit是一款开源的聊天工具包,由前OpenAI研究员和Together Computer共同开发。该工具包包含了一个200亿参数的大型语言模型、定制配方和可扩展的检索系统,可帮助用户构建高效的聊天机器人和对话系统。
200亿参数的语言模型OpenChatKit的核心是一个200亿参数的语言模型,使用了EleutherAI的GPT-NeoX-20B进行微调,以实现更高效的对话和任务处理。该模型在100%碳负载计算上进行了4300万条指令的微调,着重于多轮对话、问答、分类、提取和摘要等多个任务。这样的微调可使模型更好地适应用户需求,并提供更准确的回答。
定制配方除了强大的语言模型,OpenChatKit还提供了定制配方,可帮助用户调整模型以满足特定的任务需求。用户只需准备自己的数据集,并使用OpenChatKit的配方来微调模型即可获得高精度的结果。这样的配方可帮助用户快速构建自己的聊天机器人和对话系统,提高对话效率和准确度。
可扩展的检索系统OpenChatKit还提供了一个可扩展的检索系统,可帮助用户从文档存储库、API或其他实时更新信息源中添加信息。这样的检索系统可使机器人更加智能,能够从更多的信息中获取答案,并提供更加准确的回答。
模型优点多轮对话:OpenChatKit的语言模型可进行多轮对话,并能够在多次对话中保持上下文,并根据用户的需求提供相应的回答。
问答:OpenChatKit的语言模型可对问题进行答复,并可基于文档或数据集提供更加准确的答案。
分类:OpenChatKit的语言模型可对文本进行分类,并可用于情感分析、主题分类和意图识别等任务。
提取:OpenChatKit的语言模型可从文本中提取结构化信息,并可用于自然语言生成和自动摘要等任务。
多语言支持:OpenChatKit的语言模型可支持多种语言,可应用于不同国家和地区的聊天机器人和对话系统。
高效的微调:OpenChatKit的定制配方可使用户快速微调模型,提高对话效率和准确度。
训练细节OpenChatKit的训练细节包括硬件、优化器、梯度累积、批次和学习率等参数设置。
硬件 OpenChatKit的模型训练使用了2 x 8 x A100 GPU的硬件配置。
优化器 在优化器方面,OpenChatKit采用了8bit-AdamW。8-bit训练是一种使用低位精度进行训练的技术,它可以提高模型的训练速度和内存效率。AdamW是Adam算法的一个变种,它使用L2正则化来更新权重,可以帮助模型更好地避免过拟合。
梯度累积 为了能够训练更大的批次,OpenChatKit使用了梯度累积技术,将多个小批次的梯度相加后再更新模型参数。在训练过程中,OpenChatKit采用了2次梯度累积。
批次 OpenChatKit使用了一个相对较大的批次大小,每个批次包含2 x 2 x 64 x 2048 = 524,288个标记。这可以帮助模型更好地利用硬件资源,提高训练速度和效率。
学习率 在学习率方面,OpenChatKit采用了一种温和的预热策略,将学习率逐步增加到1e-6,预热期为100个步骤,之后保持不变。这种策略可以帮助模型更好地适应训练数据,避免在训练初期发生梯度爆炸或消失等问题。
通过这些参数设置,OpenChatKit能够在大规模数据上进行高效、准确的模型训练,从而为用户提供更好的聊天体验和更多的应用场景。
github介绍OpenChatKit是一个强大的开源工具,为不同应用提供专门或通用的聊天机器人的创建基础。该工具包包括一个经过调整的、拥有200亿参数的语言模型、一个拥有60亿参数的模型以及一个可扩展的检索系统,可以包括来自自定义库的最新响应。它是在Together、LAION和Ontocord.ai合作的OIG-43M训练数据集上训练的。这不仅是一个模型发布,而且是一个开源项目的开始。我们发布了一组工具和流程,以进行社区贡献的持续改进。
在这个项目中,你可以找到以下内容的代码:
训练OpenChatKit模型使用模型进行推理测试使用检索索引扩展模型在开始之前,你需要安装PyTorch和其他依赖项。
OpenChatKit的基础模型是GPT-NeoXT-Chat-Base-20B,它是GPT-NeoX的一个 fine-tuned 版本,用于对话数据集。我们在Huggingface上发布了该模型的预训练权重togethercomputer/GPT-NeoXT-Chat-Base-20B。
该聊天模型是在LAION、Together和Ontocord.ai创建的OIG数据集上进行训练的。你可以通过在repo的根目录下运行以下命令从Huggingface下载该数据集:
python data/OIG/prepare.py在训练之前,你需要从Eleuther AI下载GPT-NeoX-20B,并将其准备好进行微调。在repo的根目录下,运行以下命令:
python pretrained/GPT-NeoX-20B/prepare.py为了微调GPT-NeoXT-Chat-Base-20B,你可以使用 training/finetune_GPT-NeoXT-Chat-Base-20B.sh 脚本来配置和运行训练循环。在下载数据集和基础模型之后,运行以下命令:
bash training/finetune_GPT-NeoXT-Chat-Base-20B.sh默认情况下,训练脚本只是打印损失,但它也可以使用loguru输出指标或将其报告给Weights & Biases。
你可以使用以下命令将权重转换为Huggingface格式,以便使用该模型执行推理:
mkdir huggingface_models && python tools/convert_to_hf_gptneox.py --ckpt-path model_ckpts/GPT-Neo-XT-Chat-Base-20B/checkpoint_5 --save-path /huggingface_models/GPT-NeoXT-Chat-Base-20B --n-stages 8 --n-layer-per-stage 6为了测试该模型,OpenChatKit提供了一个简单的命令行测试工具来与机器人进行交互。你可以通过以下命令来启动测试工具:
python inference/bot.py如果要从Huggingface仓库加载基础模型,可以使用以下命令:
python inference/bot.py --model togethercomputer/GPT-NeoXT-Chat-Base-20BOpenChatKit还提供了一个检索增强模型的实验性功能,可使用维基百科索引查询。你可以通过以下命令来下载维基百科索引:
python data/wikipedia-3sentence-level-retrieval-index/prepare.py在启动检索增强模型之前,你需要使用以下命令启动OpenChatKit测试工具:
python inference/bot.py --retrieval当模型和索引加载完毕后,所有查询都将与额外的上下文进行增强。
总之,OpenChatKit是一个非常有用的开源工具,可以帮助你快速创建不同类型的聊天机器人,并提供各种训练和测试工具。它是一个活跃的开源项目,社区可以不断改进它。
❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊😊,后续会继续输入更多优质内容❤️
👉有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博相关......)👈
上一篇:npm ERR! notarget No matching version found for xxx@^1.0.64. npm 插件安装失败
友情链接: 武汉网站建设