本文目录一览:
莫名走强,原因找到了
昨天大盘嗨完,晚间外盘搞事。
一是美十债再次突破4了(去年11月后首次),二是“特斯拉投资法会”,一下子把稀土和第三代半导体材料碳化硅(SiC)都摁死在地上。
美十债向上,成长股、港股都会遭殃。
特斯拉一搞,被动刀子的领域短期没啥实际影响,但预期肯定是天翻地覆了,实际上影响多大不好估计。
不过昨天A股大盘毕竟是放量上涨,几乎光头阳,参考2月21日的走法,还会有余量向上,所以今天最终收盘,指数跌不多。
明天是两会前的最后一个交易日,总之我们接下来只能多观察大盘量能和北向了,耐心等待逆风过去。
昨天PMI数据虽然很好,不过既然是在春节之后,不排除有日历效应,至少多看一两个月才能确定。
……
书接上回,谈算力建设带来的市场空间。
对模型来说,分为训练成本和推理成本,前者包括堆芯片服务器的硬件配置(自建IDC训练)或使用成本(云端训练),后者和用户访问量有关,主要属于硬件使用成本。
自建成本,一种算法是对标OpenAI和微软的超级计算机,用上375台服务器,每台搭载8颗A100芯片,算力可以比得上对标原型的1万颗V100芯片。
每台这样的超级计算机,需要花7500万美元左右,约合5亿RMB。
接着市场空间就看,会有多少自建,就代表有多少AI服务器和芯片的需求。
据公开数据,北京约有1000家AI核心企业,占全国数量近3成,倒推全国约3500家左右。
由于超级计算机投入巨大,估计只有头部企业做自建,家数假设占1%~2%,算50家好了,国内这是250亿的市场空间。
再用全国倒推全球,以2021年我国AI服务器市场规模占全球AI服务器市场规模的占比约38%估算,全球差不多650亿的市场空间。
当然了,昨天说过,模型有大小,而且未来模型可能会越来越大,算力需求也越来越大,所以这么计算市场空间其实不准,有可能不断向上浮动。
浪潮信息有好几款服务器产品就搭载A100。
浪潮可是全球AI服务器份额最大的单一企业,所以虽然股民个个说起来都称它是“mai办”,不屑一谈,但身体很诚实啊,炒就对了。
至少现在,英伟达GPU还是香啊,国内那些芯片企业做的产品,未来能否形成替代,是主要的预期差(YY)空间。
比如寒武纪、龙芯,GPGPU多半还在流片阶段,而且对制程封锁敏感(同样也是卡脖子),所以任重道远。
这里,连带就有Chiplet先进封装的炒作空间了。
这里为止,只算自建IDC的训练成本,推理成本的话,和模型的终端用户数量有关(用日活跃用户,也就是日活来计算)
我们不要把饼画太大,参考OpenAI算法,假设每日1亿用户,每人进行10条交互,每个问题的回答长度为50词,算力利用率30%,则单个大语言模型(LLM)的日常需求有望带来2万片A100的增量。
假设国内有5家大企业推出此类LLM,则总增量为10万片A100、1.25万台服务器(每台8颗A100),对应AI推理的市场规模200亿RMB左右。
按刚才的方式倒算全球,大约500亿RMB的AI模型推理全球市场,这里只算大模型,忽略了一些小型的空间,所以也算是比较中规中矩了。
只有1%~2%做自建,剩下AI企业怎么办?云端训练、云端推理。
大企业建了有自建,也有很多是提供云服务,要租出去给小企业用。
若在云端训练,据Lambda Labs首席科学官Chuan li介绍,拥有1750亿个参数的GPT-3单次训练成本达到460万美元。
若在云端推理,据《Fortune》杂志数据,每次用户与ChatGPT互动,产生的算力云服务成本约0.01美元,则每天2亿的访问量,对应的云端成本为每天200万美元。
建好的模型,还结合现有生态去变现,比如搜寻引擎。
这里吃红利的是谁?多半是公有云。
三大运营商,一开始炒的就是这个。
只是到后来,出了白皮书和工信部文件,大家把它联想到6G身上而已。
光有6G不行(虽然打包数字中国,看起来好像很厉害),低估,也不是三大运营商炒起来的充分条件,估值提振,必然需要讲别的故事。
整个移动互联网时代,其实就是三大运营商的C端增值服务被民企打得满地找牙的血泪史,这也是它们估值长时间江河日下的主要原因。
但现在不同了。
三大运营商已经把手伸进民企互联网龙头了,而且公告出来大家一看,它们2022年产业数字化相关业务收入迅速增长,资本开支同比增长也很迅速,这是加码算力网络建设的结果。
做C端服务,它们不行,但现在明摆着是要大力出奇迹、B端变现了,“集中力量办大事”本来就是我国的传统艺能。
具体过程推演,就是运营商先花钱堆算力,然后期待未来凭着AI模型的算力需求,云收入源源不断。
换句话说,用终局来估值。
这和早年大家期待运营商的增值服务能一统江湖,给了成长股的高估值,本质上是类似的。
炒,就是比谁敢想,敢做梦,不止敢,还要比别人快。
我们在这里分析,也是慢了,主要就是求个看懂市场、理解思路吧~
三大运营商打头阵,国内云服务商在追赶AI大潮的过程当中,还要留心现有龙头的动向。
今日凌晨,OpenAI放出了真正的ChatGPT API(ChatGPT的本体模型),价格居然比已有的GPT-3.5模型便宜10倍。
云服务的估值,要把定价的内卷算进去啊,吐了~
互联网一向是倾向赢家通吃,想赶超?任务艰巨…
炒的时候,还得留三分清醒。
(未完待续)