面壁智能开源9B参数全双工全模态模型,12GB显存即可本地运行,支持边看边听边说,附在线Demo和一键安装包


面壁智能开源9B参数全双工全模态模型,12GB显存即可本地运行,支持边看边听边说,附在线Demo和一键安装包
不用联网、仅用一张消费级显卡,就能在个人电脑上拥有一个「边看、边听、边说、还能主动提醒」的类人 AI 助手。这不是概念,MiniCPM-o 4.5 已经把它变成了可以在你电脑上直接跑起来的东西。
MiniCPM-o 4.5 是面壁智能联合清华大学发布的业界首个端到端全双工全模态大模型,仅 9B 参数规模,却实现了多模态感知 + 流式语音交互的完整闭环。模型在 Hugging Face 上的下载量已突破 25 万+。
简单说,它是一个可以同时「看视频、听声音、说话回复、主动提醒」的 AI 助手模型。跟传统大模型最大的区别是:
无需注册、无需下载,直接打开浏览器体验:
Demo 展示了三种交互模式:传统轮次对话、语音双工交互、视频双工交互,并可完整调节 Prompt、参考音频等参数。
面壁提供了 Windows/macOS 桌面安装包,集成模型下载、环境安装和 Demo 运行能力。
Windows 版本:
macOS 版本:
API 端点:https://api.modelbest.cn/minicpmo45/v1/
目前免费开放,支持全模态全双工实时交互,无需 VAD 机制控制对话轮次。API 文档:https://api.modelbest.cn/minicpmo45/docs
Demo 前后端代码已完全开源:https://github.com/OpenBMB/MiniCPM-o-Demo
Linux 用户可克隆代码仓并部署完整的 Demo 服务,这是首批可本地部署的全双工全模态交互演示项目之一。
MiniCPM-o 4.5 的核心突破是 Omni-Flow 流式全模态框架。它创造了一个共享的毫秒级时间轴,把视觉、音频、语言等所有信息流都精准对齐到时间片上。模型以每秒一次的高频持续刷新环境认知,自主决定何时说话、何时提醒。
模型架构由四大模块组成:
不要被 9B 参数骗了,MiniCPM-o 4.5 在多个维度表现亮眼:
MiniCPM-o 4.5 的全双工能力解锁了一系列传统轮次对话模型无法胜任的场景: