推出 Stable LM 2 1.6B — Stability AI

内容

要点:

  • 稳定 LM 2 1.6B 是一款最先进的 16 亿参数的小型多语言语言模型,使用英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语的多语言数据进行训练。
  • 该模型的紧凑尺寸和速度降低了硬件门槛,使更多开发人员能够参与生成式人工智能生态系统。
  • 除了预训练和指导调整版本之外,我们在预训练冷却之前发布了最后一个检查点。我们包含了优化器状态,以便开发人员进行微调和实验。数据细节将在即将发布的技术报告中提供。
  • 稳定 LM 2 1.6B 现在可以在商业和非商业环境中使用 Stability AI Membership,您可以在 Hugging Face 上测试该模型。

今天,我们推出了新的 Stable LM 2 系列的第一个语言模型:16亿参数的基础模型和一个经过指导调整的版本。基础模型经过两轮训练,使用了大约2万亿个标记,包括英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语的多语种数据。我们利用了语言建模的最新算法进展,取得了速度和性能之间的有利平衡,使得在中等资源下能够进行快速实验和迭代。

此版本还将提供数据详细信息,以便开放社区可以复现类似性能的模型。与此同时,我们首次发布了最终的预训练检查点,在冷却之前,包括优化器状态,以帮助开发人员顺利继续预训练和微调他们的数据——因为一些最近的预训练模型可能由于后期优化而更难微调。在未来几天,我们将分享一份全面的技术报告,探讨并描述我们遵循的数据混合和训练程序。

模型性能

我们将 Stable LM 2 1.6B 与其他流行的小语言模型进行比较,如微软的 Phi-1.5(1.3B)和 Phi-2(2.7B),TinyLlama 1.1B 或 Falcon 1B。在大多数任务中,它的性能优于 2B 以下的模型,甚至一些更大的模型,在 Open LLM 排行榜中的通用基准测试中,它在测试中表现出紧凑的大小和速度。

Open LLM Leaderboard evaluations. \ Qwen/Qwen-1_8b results are not available at this time_

在多语言文本的明确训练下,对 ARC Challenge、HellaSwag、TruthfulQA、MMLU 和 LAMBADA 的翻译版本表现显示,Stable LM 2 1.6B 的性能明显超过其他模型。

Okapi翻译基准和多语言LAMBADA的单次平均准确性表现。请注意,LAMBADA不包括荷兰语和葡萄牙语。

(按1到10的比例评分)

通过发布迄今为止最强大的小型语言模型之一,并提供其训练细节的完全透明度,我们旨在赋予开发人员和模型创建者快速实验和迭代的能力。需要注意的是,由于小型、低容量语言模型的特性,Stable LM 2 1.6B 可能会出现常见问题,如高幻觉率或潜在的有害语言。我们要求社区在构建应用程序时牢记这一点,并采取适当措施确保他们负责任地开发。

仅限商业和非商业使用

稳定 LM 2 1.6B 是稳定 LM 系列中的第一个模型,属于 稳定人工智能会员资格。该会员资格包括三个不同的会员资格等级,确保任何人,从个人到企业,都能从这项技术中受益。您可以在这里了解更多信息。

通过订阅我们的通讯,及时了解我们的进展,或者通过联系我们了解更多商业应用信息。

Twitter Instagram LinkedIn上关注我们,并加入我们的 Discord 社区

总结
Stable LM 2 1.6B是一款基于多语言数据(英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语)训练的最新1.6亿参数小型语言模型。其紧凑的尺寸和速度降低了硬件门槛,使更多开发者能够参与生成式人工智能生态系统。该模型可用于商业和非商业用途,并提供了预训练检查点和优化器状态以便开发者进行微调和实验。此外,该模型在多项任务上表现优异,特别是在多语言文本翻译方面表现出色。