Mistral AI:1760亿参数MoE登开源榜首

“欧洲版OpenAI”之称的Mistral AI低调推出了名为Mixtral 8x22B的全新MoE(专家混合)大模型,该模型参数规模达到1760亿,仅次于Groak-1,在开源模型中参数量排名第二。Mixtral 8x22B由8个220亿参数的专家模型构成,模型文件大小约262GB。在性能测试中,Mixtral 8x22B在MMLU测评中位居开源模型首位,并在多个基准测试中超越了包括Llama 2 70B、GPT-3.5和Claude 3 Sonnet在内的多个知名模型。Mixtral 8x22B已上传至Hugging Face开源社区,只需3张A100显卡即可运行。

开源地址:
https://huggingface.co/mistral-community/Mixtral-8x22B-v0.1/discussions/4

搜索