近日,开源社区迎来重磅消息:一款基于混合专家模型(Mixture of Experts, MoE)架构的超大语言模型正式开源,其性能在多项基准测试中直逼GPT-4-Turbo,同时宣布为开发者提供100万token的免费调用额度。这一举措不……
近日,开源社区迎来一项重磅突破:一款基于混合专家模型(Mixture of Experts,MoE)架构的超强AI模型正式开源,不仅提供高达100万token的免费使用额度,其综合性能更被实测接近GPT-4-Turbo水平。这一成果不仅为开……