StabilityAI推出16亿参数规模的大语言模型Stable LM 2 1.6B

55次阅读
没有评论

共计 503 个字符,预计需要花费 2 分钟才能阅读完成。

StabilityAI 在今天发布了一个 16 亿参数规模的大语言模型 Stable LM 2 1.6B,相比较常规的大语言模型,这个模型参数仅 16 亿,可以在移动端运行。但是它的性能效果与几个月前 70 亿参数规模差不多。

官方介绍:https://stability.ai/news/introducing-stable-lm-2

官方 Demo:https://huggingface.co/spaces/stabilityai/stablelm-2-1_6b-zephyr

模型地址:

https://huggingface.co/stabilityai/stablelm-2-1_6b

https://huggingface.co/stabilityai/stablelm-2-zephyr-1_6b

该模型的主要特点如下:

  • 16 亿参数规模,可以在移动端运行,原始模型文件大小仅 3.29GB;
  • 支持多国语言,包括英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语;
  • 性能良好,16 亿参数规模,MMLU 评分 38.93,超过了 70 亿参数的 MosaicML 的 MPT-7B。在 MT-Bench 得分上超过了 Qwen-1.8B 和 Phi- 2 模型。

StabilityAI 推出 16 亿参数规模的大语言模型 Stable LM 2 1.6B

正文完
关注公众号获取最新教程
post-qrcode
 
AI小诸葛
版权声明:本站原创文章,由 AI小诸葛 2024-01-20发表,共计503字。
转载说明:除特殊说明外本站文章皆由原创发布,请勿转载。
评论(没有评论)
验证码