IT之家 01月26日
百川智能上线开源全模态模型 Omni-1.5,号称多项能力超越 GPT-4o mini
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

百川智能的Baichuan-Omni-1.5开源全模态模型正式上线,支持多模态理解与生成,在多个方面表现优异,具有多种强大功能,还构建了庞大数据库,并提供开源地址。

💻Baichuan-Omni-1.5支持文本、图像、音频和视频全模态理解与生成

🎯在视觉、语音等多方面表现优于GPT-4o mini,在多模态医疗领域具领先优势

🔊采用端到端音频解决方案,支持多语言对话、音频合成等功能

📽️对视频理解的多个关键环节优化,整体性能超GPT-4o-mini

IT之家 1 月 26 日消息,百川智能今日宣布,Baichuan-Omni-1.5 开源全模态模型正式上线。该模型不仅支持文本、图像、音频和视频的全模态理解,还具备文本和音频的双模态生成能力

官方宣称,其在视觉、语音及多模态流式处理等方面,Baichuan-Omni-1.5 的表现均优于 GPT-4o mini;在多模态医疗应用领域,其具备更突出的领先优势。

Baichuan-Omni-1.5 不仅能在输入和输出端实现多种交互操作,还拥有强大的多模态推理能力和跨模态迁移能力。

其在音频技术领域采用了端到端解决方案,可支持多语言对话、端到端音频合成,还可实现自动语音识别、文本转语音等功能,且支持音视频实时交互。

据介绍,在视频理解能力方面,Baichuan-Omni-1.5 通过对编码器、训练数据和训练方法等多个关键环节进行深入优化,其整体性能大幅超越 GPT-4o-mini

模型结构方面,Baichuan-Omni-1.5 的模型输入部分支持各种模态通过相应的 Encoder / Tokenizer 输入到大型语言模型中。

而在模型输出部分,Baichuan-Omni-1.5 采用了文本-音频交错输出的设计,通过 Text Tokenizer 和 Audio Decoder 同时生成文本和音频。

百川智能构建了一个包含 3.4 亿条高质量图片 / 视频-文本数据和近 100 万小时音频数据的庞大数据库,且在 SFT 阶段使用了 1700 万条全模态数据。

IT之家附开源地址如下:

GitHub:

模型权重:

技术报告:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Baichuan-Omni-1.5 全模态模型 多模态医疗 音频技术
相关文章