FFM-Mistral

以高品質繁中語料訓練 Mistral AI 開源模型,讓您擁有在地化且精準的互動體驗。
FFM-Mixtral-8x7B 為混合專家模型架構 (MoE),能以低成本運算大量參數及資料,繁中表現勝過 GPT 3.5。原生 32K Context Length,可以處理大量文字並保持推論精確度。

FFM-Mistral

★ 完整提供 FFM-Mixtral-8x7B、FFM-Msitral-7B 兩種模型 ★
★ 保留原生 32K Context Length,可以處理大量文字並保持推論精確度 ★
★ FFM-Mixtral-8x7B 為混合專家模型架構 (MoE),繁中表現勝過 GPT 3.5 ★
★ FFM-Mistral-7B 亦具備 Coding 能力,可同時滿足語言模型及程式助手需求 ★

適用情境

長文本處理

能以高精確度處理大量文本,充分發揮原生模型 32K Context Length,適用於長文本處理及複雜因果推論。

混合專家模型架構 (MoE)

能以低成本運算大量參數及資料,並得到更精確的回答。每次與模型互動時,皆會觸發不同專家模組處理特定領域的問題。

優異 Coding 能力

具備強大 Coding 能力,有效提高程式開發流程效率。FFM-Mistral-7B 的 Coding 能力接近 CodeLlama-7B。

多種語言強化

加上 FFM 繁中語料強化,使 FFM-Mistral 系列更適用於多國不同語言,充分發揮原生模型既有歐系多國語言能力。

免費諮詢服務

聯絡台智雲專家,了解並開始使用適合您的解決方案。

技術顧問諮詢

訂閱活動及行銷 EDM