跑分达ChatGPT的99%,人类难以分辨!开源「原驼」大模型爆火 | 您所在的位置:网站首页 › tim_setcompare1的参数 › 跑分达ChatGPT的99%,人类难以分辨!开源「原驼」大模型爆火 |
0
分享至
用微信扫码二维码 分享至好友和朋友圈 梦晨 发自 凹非寺量子位 | 公众号 QbitAI自动测试分数达到ChatGPT的99.3%,人类难以分辨两者的回答…… 这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼(Guanaco)。 更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的显存需求从>780GB降低到> 数据数量指令微调有利于推理,但不利于聊天 最后,QLoRA的高效率,还意味着可以用在手机上,论文共同一作Tim Dettmers估计以iPhone 12 Plus的算力每个晚上能微调300万个单词的数据量。 这意味着,很快手机上的每个App都能用上专用大模型。论文:https://arxiv.org/abs/2305.14314 GitHub:https://github.com/artidoro/qlora 与ChatGPT对比测试:https://colab.research.google.com/drive/1kK6xasHiav9nhiRUJjPMZb4fAED4qRHb 330亿参数版在线试玩:https://huggingface.co/spaces/uwnlp/guanaco-playground-tgi 参考链接:[1]https://twitter.com/Tim_Dettmers/status/1661379376225697794[2]https://huggingface.co/blog/4bit-transformers-bitsandbytes 特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。 Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services. /阅读下一篇/ 返回网易首页 下载网易新闻客户端 |
CopyRight 2018-2019 实验室设备网 版权所有 |