面壁智能 2024-08-22 21:37 北京
这是面壁计划的一部分
面壁 2 岁了。
回首过去的两年,初心依然澄澈,AGI 的远景仍令我们心潮澎湃。
今天,在每月一度的面壁 TGIF(就是每个月,所有人可以向所有人提问的开诚布公的活动),我们给面壁过了个生日。同学们围在一起,感谢彼此,望向未来。
听听面壁同行者们对彼此的心里话↓
李大海:感谢面壁所有同学,我们是一个有理想、有斗志、了不起的团队!
我们坚持本质思考,闯出了自己的独特路线。大模型爆品级的面壁小钢炮端侧模型,领跑着世界端侧 AI 的发展。2B、2C两端,首个司法审判垂直模型等杰出产品的诞生等,不断刷新行业记录。谢谢大家,每份业界超预期的交付和成果,都是你们全力以赴的责任与担当!
刘知远:正如历史上所有伟大公司诞生之初,拼的不是人多,拼的是我们对未来的远见,对未来的坚定。
我们开拓出了具有面壁特色的「大模型科学方法论」:提出“知识密度”,提出模型“制程工艺”的重要性,相比主流国际级玩家也毫不逊色。甚至提前半年意识到端侧智能的重要,围绕如何把大模型放到离用户最近的地方进行全方位探索!以始为终,我们所有的思考和动作紧紧围绕着 AGI 的本质出发 ,终将稳步向前 、不屈不挠地抵达。
两年的时间,在不同人身上,时间流逝的方式不一样。
两年只是一瞬。如果认准了一个坚信的方向,在 AGI 的征程中,沉醉于创造的“心流”,充盈着发现的喜悦,探索中某一时刻获得顿悟,这是最高级的享受。
两年也充斥着紧张、刺激、躁动。在一个正在发生深刻改变的领域,身处一场席卷全球技术风暴的风眼中心,你追我赶,无法松懈,这是一场持续的意志力比拼,更是决断力、战略力的考验。
两年必须是一个被铭记的节点。面壁「小钢炮」MiniCPM 旗舰端侧模型,一次次将我们对端侧 AI 的想象拉至极致:它不仅演绎了基座模型不可思议的以小博大与高效低成本,也不断将端侧多模态模型的天花板推至新高:
最新的 MiniCPM-V 系列,实时视频理解、多图联合理解等多项重要功能首次上端,开启了端侧模型全维度对标 GPT-4V 新时代。
又小又炸裂的小钢炮端侧模型,为我们赢得了业界的口碑!
两年间,面壁团队始终保持着高效、先锋的本能,而每次超前研判都踩中了技术发展的趋势,这令我们无比骄傲!
从先于国内所有团队开启大模型研究,仅用同行 1/10 的资源首批次推出千亿多模态模型;
到 ChatDev、XAgent、IoA 等明星项目领跑国际智能体研究;
再到 2024 年年初就坚定地推进端侧智能路线、接下来半年日渐被认同为主流、并与实力雄厚的国际主要玩家一争高下;
过程中还发挥自然语言处理的先天优势禀赋,助力全国首个司法审判垂直领域大模型落地。
两年的重磅不少,AGI 的未来画卷徐徐展开。
更加独树一帜的是,我们是国际少有的、摸索出自己「大模型高效方法论」的团队。在通行的 Scaling Law 之外,另辟蹊径,用以知识密度为核心的「面壁定律」指引我们进行更高效的大模型科学化探索。
当潮水涌过来,是被推着走,还是逆流而上。躬身入局者,需要精确判断,并且鼓起勇气。
回首过去的两年,面壁智能在这条拥挤的赛道里逆流而上,以小博大,不断变强,正是因为找到了难而正确的事——「大模型科学化」。
OpenAI 的经验证明,把模型规模变大,就可以让模型的效果变好,这的确是事实。
但是这个过程可能是一个低质量的成长,如果需要用几倍于别人的算力参数规模训练模型。训练模型如同大炼钢铁,如何保证炼出的都是精钢硬铁?
面壁正在努力的,是用高效模型技术去改善知识萃取的过程,提升模型知识密度。
如何突破硬件限制,使算力消耗更少,离用户更近,让大模型的能力像电力一样被随意调用、无处不在、普适且安全,尽可能快地让更多的人享受大模型的价值和作用?
刘知远:把高效大模型放在端侧,放在离用户最近的地方,「大模型科学化」是必经之路!
它是站在海岸遥望海中已经看得见桅杆尖头的一只航船;
它是立于高山之巅,远看东方正是光芒四射、喷薄欲出的一轮朝日;
它是躁动于母腹之中的快要成熟了的一个婴儿。
我特别希望引用这段话共勉,跟大家一起,去迎来属于AGI 的这次高潮。
两年,仅是起步,已是美不胜收;迎着 AGI 的曙光,滚烫的理想在我们的心里、眼里舞蹈,亦付诸每件日行小事。
由衷感谢给予我们信任、帮助的工作伙伴、合作伙伴、社会各界领导与朋友们!感谢选择,一路同行!
今天,面壁正在构建的,是能够改变世界的智能基石。「大模型科学化」是一艘所有心怀 AGI 理想的人都必须造的巨轮,我们正在寻找志同道合者,一起完成它!这就是我们的信仰!
巨轮下水的那天,星辰,大海,我们将见证绝美的风景!
欢迎加入 OpenBMB 开源社区一起讨论:
? 面壁官网:https://modelbest.cn
? 商务合作:business@modelbest.cn
? 加入我们:career@modelbest.cn