近日,开源社区迎来重磅消息:一款支持100万token上下文长度的超强MoE(Mixture of Experts)架构大模型正式开源,其性能在多项基准测试中直逼当前顶尖的闭源模型GPT-4-Turbo。这一突破不仅填补了开源领域在长文本……