在科技领域,大语言模型的效率正被不断刷新。其中,一家以“清华系”为背景的创业公司表现尤为突出,他们致力于对语言模型的优化,使其在同等成本下达到更好的效果。
面壁智能作为其中的佼佼者,一直在探索小而强、小而全的模型。他们发布的minicpm系列模型,不仅在多模态、长文本、moe等领域进行了迭代,更是以小体量、高性能为目标,成为了业界的佼佼者。
除了上述模型外,面壁智能还运用了最新的moe(混合专家模型)架构,推出了minicpm-moe-8x2b模型。该模型采用了最前沿的技术,为大模型带来了性能的激增。
面壁智能在探索高效训练、高效落地与高效推理的过程中,不仅总结出了自己的scaling law,还以世界级的前瞻研究成果,布局了大模型全栈技术生产线。他们的技术实力和研究成果得到了业内的广泛认可。
现如今,面壁智能已成功构建了一个超过百人的科研团队,团队成员中高达八成的精英来自清华与北大两所高等学府,且团队成员的平均年龄仅为28岁,这无疑为其科研实力的持续增强注入了活力。
在科技领域,minicpm的最新探索正成为引领大模型发展的关键一环。若以效率为评判标准,面壁智能无疑展现了其领先的速度与潜力。
不久前的发布会上,面壁智能高调宣布已经成功筹集了新一轮的巨额融资——数币。这次融资由春华创投和华为哈勃领投,北京市人工智能产业投资以及其他多家跟投方积极参与,同时知乎作为战略股东也持续给予了支持。这笔资金将被用于加速推动大模型的训练效率,以及更快地实现其应用落地。