大模型融资战事启幕:MiniMax估值超25亿美元,互联网大厂“掘金”AI丨GAI进化论⑩

科技 2024-04-19 16:32 阅读:

21世纪经济报道记者张梓桐 上海报道

4月19日,有市场消息称,中国AI初创公司MiniMax当前估值已经超过25亿美元。

此前,MiniMax进行了新一轮大规模融资,阿里巴巴为其中的核心领投方。

而在前一日,有媒体报道称,由王小川创立的百川智能进行新一轮数亿美元融资,将成为国内2024年最大AI领域融资之一。

来自参与的投资人证实,百川智能今年以来估值已超18亿美元(约合人民币130亿元)。对此,百川智能回应称:并未官方对外披露过最新融资信息,报道中涉及的金额也不准确。

但无论如何,一个有意思的现象是,上述AI明星创业项目背后或多或少都站着互联网大厂的身影。

以另外两家明星公司——智谱AI和月之暗面为例,在智谱AI2023年累计获得的超25亿人民币融资中,投资方囊括了美团、蚂蚁、阿里、腾讯、小米、金山、顺为、Boss直聘、好未来、红杉、高瓴等多家机构。

而此前有消息报道称,在月之暗面上一轮的融资中,大部分资金都来自于阿里巴巴,这也让阿里在这轮融资之后成为了月之暗面团队之外的机构大股东。而更值得关注的是,阿里这笔投资中有一部分属于算力支付。

“互联网大厂投资AI创业公司有着充分的市场逻辑:一方面阿里巴巴、腾讯都在AI大模型领域进行自研、这是业务上的天然协同性;另一方面,这些公司在成长性方面都有着很大的想象空间,因此在财务回报上十分可期。”一位AI创业公司合伙人对21世纪经济报道记者分析道。

明星创业项目

MiniMax母公司为名之梦(上海)科技有限公司,成立于2021年11月,专注于研发中文大语言模型,在今年6月获得腾讯等机构投资的超2.5亿美元融资后,其估值已经到了12亿美元,是国内目前估值最高的AIGC独角兽。

公司团队主要来自商汤科技等知名人工智能公司,创始人是商汤科技前副总裁闫俊杰。根据SuperCLUE发布中文通用大模型综合性评测基准2023年8月榜单,MiniMax的MiniMax-abab5模型在OPT排行榜位列第四,仅次于ChatGPT-4、ChatGPT-3.5和Claude-2,在国内大模型产品中排名第一。

2023年8月底,共有8家大模型公司通过了《生成式人工智能服务管理暂行办法》首批备案,其中除了百度文言一心、抖音云雀大模型这些较为知名的大厂外,MiniMax便于其中之一。

日前,MiniMax已推出自研角色扮演类AI聊天应用Glow、自研通用大模型ABAB,以及为金山办公等B端客户发布了相应解决方案。此前,MiniMax已完成3轮融资,投资方包括腾讯、米哈游等。

另一家公司百川智能则成立于2023年4月10日,由前搜狗公司CEO(首席执行官)王小川创立。其核心团队由来自搜狗、谷歌、腾讯、百度、华为、微软、字节等知名科技公司的AI(人工智能)顶尖人才组成。目前,百川智能的团队规模170余人,其中硕士及硕士以上学历员工占比近70%,研发人员占比超80%。

成立仅半年,百川智能接连发布Baichuan-7B/13B,Baichuan2-7B/13B四款开源可免费商用大模型及Baichuan-53B、Baichuan2-53B两款闭源大模型,平均每28天就会发布一款新的大模型。

Baichuan-7B/13B两款开源大模型在多个权威评测榜单均名列前茅,累计下载量超过六百万次。Baichuan2-13B在MMLU、CMMLU、MedQA、USMLE等几大权威评估基准中,以绝对优势全方位领先LLaMA2。

面临高昂训练成本

A创业的梦想虽然俯拾皆是,但从故事落地成产品,仍然需要真金白银的资金支持。这背后核心原因仍然在于大模型训练面临的高昂成本。

放眼全球,除了几大科技巨头外,几乎没有企业承担得起大模型训练的高昂成本,算力不实现普惠化,任何关于AI和科技革命的畅想都将是空中楼阁。

“目前偏大规模的算力需求以B端和G端为主,算力降本需求十分迫切,要利用有限资金获取更多元的算力,同时优化算力资源配置和利用效率。”毕马威中国数字化赋能主管合伙人张庆杰接受21世纪经济报道记者采访时表示,在计算资源方面,大模型的训练需要大量的计算资源,包括CPU、GPU、TPU等。虽然中国算力具备一定的基础,但在计算资源方面还存在一定的短板,各行各业在底层计算资源上存在缺乏,这会限制大模型的训练和优化。

据统计,OpenAI使用了1万-3万颗英伟达GPU来训练GPT-3.5模型。集邦咨询报告显示,如果以英伟达 A100 显卡的处理能力计算,运行ChatGPT将可能需要使用到3万块英伟达GPU显卡。

价格方面,目前国内可以买到的H800价格已经高达20万/张,而A100/A800价格已涨至15万、10万/张左右。以2000P算力需求为例,H800 GPU单卡算力2P,需要1000张,预测用卡成本为2亿元;A800单卡算力约为0.625P,需要数量为3200张,预计用卡成本就高达3.2亿元。

除了买GPU显卡,服务器还要考虑整机配置运算,包括CPU、存储、NV-Link通讯连接等,以及电力消耗、场地租金和运维成本等因素,整个成本要超过6亿元以上,OpenAI则正在使用微软超级昂贵的超级计算机,耗资数亿美元、用英伟达数万颗芯片的Azure云进行算力训练。