在人工智能领域,大型语言模型(LLM)的竞争愈发激烈。近期,一款名为“UltraMoE”的超强混合专家模型(Mixture of Experts, MoE)正式开源,其不仅提供了高达100万token的免费使用额度,更在性能上直逼当前顶尖的GP……