AI & Big Data 01月17日
中國AI公司MiniMax推出新LLM,支援400萬Token與多模態應用
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

中国人工智慧公司MiniMax推出MiniMax-01系列模型,包含语言和视觉多模态模型,在超长上下文处理和多模态理解方面表现优异,且计算效率高,价格有竞争力,但受政策约束

📄MiniMax-Text-01支持长上下文处理,在多项测试中表现出色

🎯MiniMax-VL-01专注多模态应用,在影像与文本整合方面能力突出

💡MiniMax-01系列模型采用新架构,计算效率接近线性复杂度

💰MiniMax提供有竞争力的API价格

中國人工智慧公司MiniMax推出MiniMax-01系列模型,其中包含語言模型MiniMax-Text-01和視覺多模態模型MiniMax-VL-01。這兩款模型在超長上下文處理和多模態理解方面表現出色。具有4,560億參數的MiniMax-Text-01支援長達400萬Token的上下文處理能力,並在多項基準測試中與OpenAI、Anthropic等頂尖模型表現接近,而MiniMax-VL-01則專注於文本與影像的多模態應用。MiniMax-Text-01在Hugging Face上所公開的多項核心基準測試表現引人關注。在通用多任務語言理解MMLU測試中,其得分為88.5,與Claude-3.5-Sonnet和DeepSeek-V3等模型旗鼓相當。而在長文本處理的Needle-In-A-Haystack測試中,官方提到,MiniMax-Text-01在400萬Token的檢索任務中達成100%準確率,展現其對超長文本的穩定處理能力。相比之下,其他模型在處理長文本時的性能下降較為明顯,例如GPT-4o在上下文長度達1.6萬Token時準確率降至89%,Claude-3.5-Sonnet在超過12.8萬Token時,準確率下降至約93.8%。Google主打可處理長上下文的模型Gemini-2.0-Flash,也在25.6萬Token測試中準確率降至79.7%。而MiniMax-Text-01在100萬Token的超長文本環境中,仍能穩定保持91%的準確率。此外,MiniMax-Text-01在翻譯與推理基準測試MTOB和GPQA中,長文本翻譯精度和複雜推理任務均表現穩定。MiniMax-01系列模型採用新架構,結合Lightning Attention、Mixture-of-Experts (MoE) 和Softmax Attention,實現高效計算資源分配。在推理過程中,其計算效率接近線性複雜度,這代表在處理長文本時能以更低的資源成本完成高效推論。官方還公布了MiniMax-VL-01在多模態基準測試中的結果,其在影像與文本整合應用中的能力突出,適用於智慧助理和多媒體內容生成等場景。此外,MiniMax提供具競爭力的API價格,每百萬輸入Token只要0.2美元,每百萬Token輸出僅需1.1美元。不過,MiniMax為一家中國人工智慧公司,其模型在設計和開發過程受到中國政府的審查與政策約束,這可能在處理涉及政策敏感問題的應用場景時產生一定限制。因此,企業在採用MiniMax模型時,應充分考慮其技術特性和可能產生的風險。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

MiniMax 超长上下文处理 多模态应用 计算效率 API价格
相关文章