FFM-Mistral
以高品質繁中語料訓練 Mistral AI 開源模型,讓您擁有在地化且精準的互動體驗。FFM-Mixtral-8x7B 為混合專家模型架構 (MoE),能以低成本運算大量參數及資料,繁中表現勝過 GPT 3.5。原生 32K Context Length,可以處理大量文字並保持推論精確度。
FFM-Mistral
★ 完整提供 FFM-Mixtral-8x7B、FFM-Msitral-7B 兩種模型 ★
★ 保留原生 32K Context Length,可以處理大量文字並保持推論精確度 ★
★ FFM-Mixtral-8x7B 為混合專家模型架構 (MoE),繁中表現勝過 GPT 3.5 ★
★ FFM-Mistral-7B 亦具備 Coding 能力,可同時滿足語言模型及程式助手需求 ★