共计 646 个字符,预计需要花费 2 分钟才能阅读完成。
文章目录[隐藏]
上海人工智能实验室发布 InternLM3,即书生·浦语大模型第 3 代,开源了 80 亿参数,面向通用使用与高阶推理的指令模型(InternLM3-8B-Instruct)。模型具备以下特点:
- 更低的代价取得更高的性能: 在推理、知识类任务上取得同量级最优性能,超过 Llama3.1-8B 和 Qwen2.5-7B。值得关注的是 InternLM3 只用了 4 万亿词元进行训练,对比同级别模型训练成本节省 75% 以上。
- 深度思考能力: InternLM3 支持通过长思维链求解复杂推理任务的深度思考模式,同时还兼顾了用户体验更流畅的通用回复模式。

InternLM3-8B-Instruct 仅使用 4T 数据训练 ,官方宣称其综合性能 超过同量级开源模型 ,节约超 75% 训练成本;首次在通用模型中实现了 常规对话与深度思考能力融合,可应对更多真实使用场景。
- 官网:https://internlm-chat.intern-ai.org.cn
- GitHub:https://github.com/InternLM/InternLM
- 模型:Hugging Face/ModelScope

InternLM3-8B-Instruct 性能评估
基于司南 OpenCompass 开源评测框架,该模型研究团队使用统一可复现的方法对该模型进行评测。评测采用 CMMLU、GPQA 等十多个权威评测集,维度包括推理、数学、编程、指令跟随、长文本、对话及综合表现等多方面性能,结果显示,书生・浦语 3.0 在大多数评测集得分领先,综合性能“十分接近 GPT-4o-mini”。

相关文章
相关文章
正文完
关注公众号获取最新教程
