Mistral:8x7B开源MoE击败Llama 2逼近GPT-4!首个开源MoE大模型发布!也是首个能够达到gpt-3.5水平的开源大模型(李开复的大模型YI-34b排行超过了llama2-70)#Mistral #欧洲大模型 #llama2-70b #moe专家模型