端侧小模型新星,SmolLM2 1.7B击败了Llama 3.2、Qwen 2.5

SmolLM2开源了:更快、更好、更便宜, 包含三个尺寸:135M、360M 和 1.7B。

端侧小模型新星,SmolLM2 1.7B击败了Llama 3.2、Qwen 2.5

端侧小型语言模型新星——SmolLM2 1.7B击败了Qwen 2.5 1.5BLlama 3.2 1B:

  • Apache 2.0许可
  • 训练于11万亿个令牌
  • 在FineWeb-Edu、DCLM、The Stack以及新的数学和编码数据集上训练 
  • 专门用于文本重写、总结和函数调用 
  • 使用 UltraFeedback 的直接偏好优化(DPO)
  • 可以在Q4上用不到2GB的VRAM运行SmolLM2 1.7B

端侧小模型新星,SmolLM2 1.7B击败了Llama 3.2、Qwen 2.5
https://huggingface.co/collections/HuggingFaceTB/smollm2-6723884218bcda64b34d7db9https://hf-mirror.com/HuggingFaceTB/SmolLM2-1.7B-Instruc

  文章内容来自于网络,由百合树AI整理,如有侵权,联系删除。如需开始AI写作请返回主页。

上一篇:

下一篇:

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注