6 月 8 日消息,国产多模态大语言模型 TigerBot 近日正式发布,包含 70 亿参数和 1800 亿参数两个版本,目前已经在 GitHub 开源。
▲ 图源 TigerBot 的 GitHub 页面
据悉,TigerBot 带来的创新主要在于:
- 提出指令完成监督微调的创新算法提升模型可学习性。
- 运用 ensemble 和 probabilistic modeling 的方法实现可控事实性和创造性。
- 在并行训练上突破 deep-speed 等主流框架中的内存和通信问题。
此外,该模型还针对中文语言更不规则的分布,从 tokenizer 到训练算法上做了更适合的优化。
研究人员陈烨在虎博科技官网表示:“该模型在只使用少量参数的情况下,就能快速理解人类提出了哪类问题。根据 OpenAI InstructGPT 论文在公开 NLP 数据集上的自动评测,TigerBot-7B 已达到 OpenAI 同样大小模型的综合表现的 96%。”
▲ 图源 TigerBot 的 GitHub 页面
据称,其中 TigerBot-7B-base 的表现“优于 OpenAI 同等可比模型” ,开源代码包括基本训练和推理代码,双卡推理 180B 模型的量化和推理代码。数据包括 100G 预训练数据,监督微调 1G 或 100 万条数据。
IT之家小伙伴们可以在这里找到 GitHub 的开源项目。
文章版权声明
1 原创文章作者:0008,如若转载,请注明出处: https://www.52hwl.com/80283.html
2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈
3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)
4 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别