当前位置: 主页 > 攻略 > 详情
面壁智能发布千亿多模态大模型,类ChatGPT产品Luca2.0开启公测

来源:甲子光年   2023-08-31 12:38:37

对标ChatGPT。


(相关资料图)

作者| 武静静

8月28日下午,清华系通用大模型创业公司面壁智能在服贸会分论坛“通用人工智能算力论坛”上,发布了最新大模型成果 Luca,并宣布千亿基座模型驱动的多模态智能对话助手正式开启公测。

Luca是面壁智能推出的一款以CPM-Bee作为基座模型,对标ChatGPT的智能大语言模型产品,首次亮相是在今年5月的“2023中国国际大数据产业博览会”上。

在昨天的发布会上,面壁智能联合创始人、CEO 李大海提到: “Luca的多项语言模型能力已与ChatGPT 相当。” 他还在现场实时演示了Luca的多模态能力和依托群体智能技术的 AI 原生应用场景。会上,李大海宣布,Luca 版本正式开启全民公测申请。

面壁智能的创始团队来自于清华大学计算机系自然语言处理与社会人文计算实验室,联合创始人刘知远为清华大学计算机系长聘副教授、智源青年科学家;联合创始人以及CTO曾国洋为悟道·文源中文预训练模型团队骨干成员。李大海于今年6月担任面壁智能联合创始人、CEO一职,主要负责面壁智能战略发展和日常运营管理。同时李大海依旧继续担任知乎的执行董事和CTO,主导知乎技术发展。

根据李大海的介绍,三个月来,Luca总共迭代了85次,大语言模型能力整体提升 39%,其中推理能力提升119%,推理、知识、生成等多项能力媲美ChatGPT 。

新版的Luca具备文本生成、图片理解、代码生成等多种能力。

面壁智能供图

此外,Luca 还具备多模态处理能力。李大海提到,“Luca 的多模对话、细节描述和复杂推理三项整体得分为分,而行业其他模型的平均得分是分,远超现有支持中文且具备图片理解能力的大模型(采用COCO-QA90数据集对比得出)。”

面壁智能供图

李大海介绍,Luca的名字取自地球生命始祖 LUCA(The Last Universal Common Ancestor),Luca 版本最早于5月27日在2023数博会上亮相并通过实时演示的方式展现过其多项出色功能。

在申请注册后,「甲子光年」体验了这款产品。

首先我们让它介绍了一下升级的功能点:

Luca 对话页面,甲子光年截图

然后,我们又让它描述了一张图片,它给出了让笔者觉得很有趣的回复。

Luca 对话页面,甲子光年截图

从这些回复中可以看到,Luca不仅给出了有逻辑的回复,还展现出了很好的逻辑和细节描述能力。

此外,李大海还现场演示了Luca的未来应用场景。通过群体智能技术,Luca可以和它的大模型同事们群体协作,在7分钟内为提出需求的用户制作出了风靡一时的flappy Bird小游戏。“群体智能让创造力触手可及。未来,一个人开一家公司不是梦想。”李大海称。

面壁智能供图

Luca背后的CPM大模型是面壁智能从零自主研发的预训练大语言模型,其中包括中文大模型 CPM-1。最新的大模型训练直播项目CPM-Live的第二期百亿模型CPM-Bee是开源免费商用基座模型,目前已授权给数百家企业合法商用。

产品方面,面壁智能在基础模型、平台层、产品层、插件层都有布局。

面壁智能也是国内最早做大语言模型的团队之一,在2020年底,面壁智能核心团队就发布了首个中文大语言模型CPM-1,之后又陆续发布了CPM-2、CPM-3、CPM-Ant、CPM-Bee等模型。

目前,CPM-Bee 10B模型已经在OpenBMB开源社区开源。CPM-Bee模型从零开始自主训练,基于Transformer架构,中英双语表现优秀,拥有百亿量级参数、万亿级高质量语料,并且配套OpenBMB 大模型系统生态支持。根据此前测评数据,在中文的ZeroCLUE评测基准上,CPM-Bee超越其他模型,居中文大模型第一。在英文评测基准上,CPM-Bee也展现出了和开源模型LLaMA相当的效果。

面壁智能官网信息,甲子光年截图

此外,平台层,ModelForce全流程大模型平台可以根据数据格式整理业务数据输入系统,系统可以自动微调大模型形成任务专属能力插件,快速部署业务使用。ModelForce集合了高效加速平台内置大模型训练、微调、压缩、推理全流程高效计算工具体系,基于大模型少样本/零样本通用能力,能用标准化微调方式+零代码微调客户端,可以大幅降低数据标注成本、算力成本、人力成本。

商业上方面,李大海透露,面壁智能现阶段to B和to C都在尝试。“C端应用中能够提供的价值主要有两种:效率价值和情绪感。针对这两种不同的价值,我们会进行深度思考并挖掘具体应用。”李大海说,“现阶段面壁智能会稍微侧重在to C方向上,在to B端也在持续进行打磨,但会更关注如何给企业提升效率。”