在AI大模型领域,开源与闭源的竞争从未停歇。近日,一款名为OpenMoE-13B的混合专家模型(Mixture of Experts, MoE)正式开源,其性能直逼闭源旗舰GPT-4-Turbo,同时宣布为开发者提供100万token的免费使用额度,引……