​Stability AI发布Stable LM2模型更新,参数增至120亿

Stability AI在最新的Stable LM2模型更新中,宣布将参数增至120亿,以提升性能与可访问性。该更新为用户提供了更强大、更精确的文本内容生成能力。Stability AI指出,该模型在特定基准测试下表现优异,超过了Llama270B等更大型模型。

新的Stable LM212B模型包括基础版本和经过指导调整的变体,旨在增强七种语言(英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语)的会话技能。公司表示,这些新模型可通过Stability AI会员资格进行商业使用,这也是公司盈利的模式之一。

Stability AI的语言团队负责人Carlos Riquelme表示:“经过指导训练的模型专门设计用于与用户进行会话式交互,并且我们在提高安全性方面付出了很大的努力。”这次更新距离联合创始人兼CEO Emad Mostaque辞职不到一个月,而公司新任临时联合CEO Shan Shan Wong和Christian Laforte继续推出新的模型更新,表明公司仍在稳步前进。

除了增加参数到Stable LM2之外,Stability AI还改进了之前发布的1.6B版本。Riquelme指出,较小的模型如1.6B Stable LM可用于执行更具体和狭窄的任务,而较大的12B模型则具有更多功能。不过,他强调,更新的Stable LM21.6B模型已经改进了其对话风格,更安全,能够更好地与其他软件工具连接。

​Stability AI发布Stable LM2模型更新,参数增至120亿

根据不同的使用情况和可用资源,如响应时间、内存和预算等,不同的模型将提供不同的权衡。Riquelme解释道:“我们认为并不存在适用于每种情况的单一最佳模型尺寸,这就是为什么我们提供两种相当不同的模型尺寸。”

声明:内容均采集自公开的网站等各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。
资讯

腾讯云推出AIGC云存储解决方案 专为AI大模型存储需求设计

2024-4-9 10:04:30

资讯

360 AI办公产品即将上线 采用灵活会员订阅模式

2024-4-9 10:26:26

搜索