苹果发布OpenELM,基于开源训练和推理框架的高效语言模型

苹果在WWDC24前发布OpenELM,这是一个开源语言模型,旨在提高研究的可重复性和透明性。OpenELM采用分层缩放策略,提高Transformer模型的准确率,同时减少预训练tokens数量。与以往不同,它提供了完整框架,包括训练日志、检查点和配置,以及在苹果设备上推理和微调的MLX库代码。(IT之家)

购物车
優惠
搜索