共计 503 个字符,预计需要花费 2 分钟才能阅读完成。
StabilityAI 在今天发布了一个 16 亿参数规模的大语言模型 Stable LM 2 1.6B,相比较常规的大语言模型,这个模型参数仅 16 亿,可以在移动端运行。但是它的性能效果与几个月前 70 亿参数规模差不多。
官方介绍:https://stability.ai/news/introducing-stable-lm-2
官方 Demo:https://huggingface.co/spaces/stabilityai/stablelm-2-1_6b-zephyr
模型地址:
该模型的主要特点如下:
- 16 亿参数规模,可以在移动端运行,原始模型文件大小仅 3.29GB;
- 支持多国语言,包括英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语;
- 性能良好,16 亿参数规模,MMLU 评分 38.93,超过了 70 亿参数的 MosaicML 的 MPT-7B。在 MT-Bench 得分上超过了 Qwen-1.8B 和 Phi- 2 模型。
正文完
关注公众号获取最新教程
![post-qrcode](https://pic.gametop10.cn/wp-content/uploads/2023/04/1680444958-weixinG.jpg)
发表至:无分类
2024-01-20