位置: IT常识 - 正文

开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。

编辑:rootadmin
开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。

推荐整理分享开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。,希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!

参考链接:https://mp.weixin.qq.com/s/OK5NLLVSBLb-4QsnqGp45g

文章目录简要介绍模型介绍数据来源模型评估方法模型局限性模型总体评价简要介绍

以 Meta 开源 LLaMA(直译为「大羊驼」)系列模型为起点,研究人员逐渐研发出基于LLaMA的Alpaca(羊驼)、Alpaca-Lora、Luotuo(骆驼)等轻量级类 ChatGPT 模型并开源。

近日,研究者们又提出了一个新的模型:Vicuna(小羊驼)。该模型基于LLaMA,参数量13B。Vicuna-13B 就是通过微调 LLaMA 实现了高性能的对话生成

有趣的是,在该模型的评测环节中,作者没有通过某种“标准化考试”来测定模型性能,而是让GPT-4当考官,看看 GPT-4 更倾向于 Vicuna-13B 还是其他基线模型的答案。结果显示,相比于现有的 SOTA 开源模型(LLaMA、Alpaca),GPT-4 在超过 90% 的问题中更倾向于 Vicuna,并且 Vicuna 在总分上达到了 ChatGPT 的 92%。

开源模型:小羊驼(Vicuna-13B),可达chatGPT九成效果。

Vicuna(小羊驼)已开源,项目地址:https://github.com/lm-sys/FastChat demo 地址:https://chat.lmsys.org/

PS:浅浅玩了一下。总结:虽然没有chatGPT厉害,但是也不能算差了吧!而且开源是真香:)

模型介绍数据来源

Vicuna 使用从 ShareGPT 收集的用户共享数据对 LLaMA 模型进行微调。从 ShareGPT 收集了大约 7 万个对话。ShareGPT 是一个 ChatGPT 数据共享网站,用户会上传自己觉得有趣的 ChatGPT 回答。

模型评估方法

该研究创建了 80 个不同的问题,并利用 GPT-4 来初步评估模型的输出质量,其中将每个模型的输出组合成每个问题的单个 prompt。然后将 prompt 发送到 GPT-4,由 GPT-4 来根据有用性、相关性、准确性和细节来评估上述模型生成的答案质量。

下面是小羊驼-13B和其他模型的一些比较:

模型局限性

不擅长推理或数学任务,还有在输出信息的准确性和偏见等方面存在缺陷。

模型总体评价

作为一个开源模型,性能总体上可以达到 ChatGPT 的 90%,已经非常难得,并且成本较低,只需 300 美元。

本文链接地址:https://www.jiuchutong.com/zhishi/298591.html 转载请保留说明!

上一篇:yolov7配置与训练记录(二)(yolov4配置)

下一篇:前端必备:五大css自动化生成网站(稀有级别!)(前端种类)

免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

鄂ICP备2023003026号

网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

友情链接: 武汉网站建设 电脑维修 湖南楚通运网络