【CNMO科技新闻】4月11日,面壁智能宣布完成新一轮数亿元融资,由春华创投、华为哈勃领投,北京市人工智能产业投资基金等跟投,知乎作为战略股东持续跟投。据介绍,本轮融资完成后,面壁智能将进一步推进优秀人才引入,加固大模型发展的底层算力与数据基础,推动大模型高效训练、快步应用落地。
在宣布完成新一轮融资的同时,面壁智能也向外界公布了继2月发布开源模型MiniCPM之后,面壁智能近段时间取得的阶段性成果,以及发布了全新的MiniCPM 2系列端侧模型,包括四款——MiniCPM-V 2.0多模态模型,模型最小的长文本模型MiniCPM-2B-128k,MiniCPM-MoE-8x2B MoE模型,以及12亿参数规模的MiniCPM-1.2B模型。
首先来看,MiniCPM-V 2.0多模态模型, 它可以可部署在智能手机之上,支持多模态图像视频场景,并显著增强OCR(光学字符识别)能力,以实现多模态识别与推理技术。同时,该模型还刷新开源模型最佳OCR表现,根据OpenCompass榜单,综合11个主流评测基准,其通用能力超级超越Qwen-VL-Chat-10B、CogVLM-Chat-17B、Yi-LV-34B。
不止在OpenCompass榜单上,MiniCPM-V 2.0有着出色的表现,在评估大模型幻觉的Object HalBench榜单上,MiniCPM-V 2.0是14.5%,GPT-4V是13.6%。相比GPT-4V,幻觉水平持平,红字标出的即为幻觉部分,GPT-4V存在6处幻觉,MiniCPM-V 2.0存在3处。
其次是,长文本模型MiniCPM-2B-128k,该模型将原有的 4k上下文窗口扩展到了128K,支持在手机、电脑等终端中实现长文本输入。该长文本模型在InfiniteBench榜单的平均成绩超Yarn-Mistral-Nb-128K、Yi-6B-200K、ChatGLM3-6B-128K、LWM-Text-128K。
MiniCPM-MoE-8x2B MoE模型则是支持与超大参数模型一样的MoE架构,性能全面增强,推理速度也全面加快,但实际平均激活参数只有4B,但是比LiaMA2-34B、Gemma-7B等模型效果都要好,推理成本仅为Gemma-7B的69.7%。
最后是,MiniCPM-1.2B模型,作为本次规模最小的模型,它的优势在于应用场景广,可轻松部署在各类终端之上,但参数减小的同时,它的能力并没缩减,反而得到了提升,根据官方透露,仍保持上一代2.4B模型87%的综合性能。
同时,规模的缩小让它在终端推理速度上得到了提升,将MiniCPM-1.2B模型运行在智能手机上推理速度提升38%,能实现每秒25 tokens/s,是人说话速度的15~25倍,同时内存减少51.9%(iOS上MiniCPM-2.4B的量化模型是2.1G,MiniCPM-1.2b的是1.01G),成本也大幅下降。
总的来看,面壁智能此次成功融资数亿元,显示出资本市场对于面壁智能发展潜力的认可。同时,其本次推出的全新MiniCPM 2系列端侧模型,也向外界证实了他们正在不断推动模型迭代升级,相信随着面壁智能持续推动不受制约的端侧模型以及应用落地,未来我们能够更轻松、低成本的体验到大模型给我们日常生活带来的变化。