文 | 白鲸出海
The Information 报道,据此前未公开的内部财务数据和相关人士的分析,OpenAI 预计今年亏损 50 亿美金,其亟需在 12 个月之内筹集更多现金,才能活下去。如果简单分析一下 OpenAI 的收入成本结构,你大概更能深刻理解,Sam Altman 为何将 OpenAI 描述为“硅谷历史上资本最为密集的初创公司”。
以目前现金流,只够活到2025年年底?
参考过去一年的运营数据再结合如今的情况看,OpenAI 今年大概会出现 50 亿美元的资金缺口。我们知道一个公司能否运转下去,最根本的还是要看现金流。如果假设 OpenAI 一年就是 50 亿美金的缺口,且不再加大投入,微软在 2023 年 1 月给到 100 亿美金的投资,也就够撑到 2025 年年底(2023 年的资金缺口应该没有 50 亿美元那么大)。
回收打不正的原因之一就在于大模型公司高昂的运营成本。OpenAI 的成本主要来自推理成本、训练成本和人工成本三大块,据推算一年大概要烧掉 85 亿美元,这比南苏丹全国一年的 GDP 还要多。
先说推理成本,这指的是 OpenAI 租用微软服务器为 ChatGPT 及底层 LLM 提供动力方面的支出,一位直接了解支出情况的人士表示,截至 3 月,OpenAI 一年的推理成本将接近 40 亿美元,而且这还是微软因为两者的关系给出了很大的折扣。
训练成本(包括支付数据费用)预计为 30 亿美元,是仅次于推理成本的支出大头。去年,OpenAI 进一步推进了对新一代人工智能的训练,因此花费也超出预期,OpenAI 早先计划在训练成本上花费约 8 亿美元,但结果就是没控制住。The Information 估计,随着该公司推出了新版本的旗舰 LLM,并开始训练新的旗舰模型,今年训练成本还将翻一番。
第三是人力成本,OpenAI 雇佣了约 1500 名员工,而且员工人数还在迅速增加,这可能会花费约 15 亿美元。据直接了解支出情况的人士称,OpenAI 预计 2023 年的员工成本为 5 亿 美元,而到 2023 年底,员工人数翻一番,达到 800 人左右。如今 OpenAI 的员工人数又增加了近一倍,如果其网站上列出的近 200 个空缺职位能说明一些问题的话,那么在 2024 年下半年 ,OpenAI 可能还会增加更多的员工。
以上三项加在一起,OpenAI 今年的运营成本可能高达 85 亿美元,这让此前研究机构给出的 34 亿美元的 ARR 预估显得“杯水车薪”。
此前 Future Research 的一份报告指出 Open AI 的 ARR 大概在 34 亿美元左右,The Information 则给出了宽泛的预估数字,它根据 OpenAI 当前 2.83 亿美元的月收入,结合今年下半年未卜的销售情况,预计 OpenAI 的年收入在 40-50 亿美元之间,这个缺口比非洲国家布隆迪全国一整年的 GDP 还多。
降不下去的成本、不好增长的营收,不容易拿到的融资?
抛开融资去看 OpenAI 自己独立存活下去的可能,其实我们会更倾向于认为,在未来的几年里,很难、非常难。
成本比较简单,目前看起来相对有机会的方向是降低推理成本,而对于训练成本,在目前大模型厂商积极抢位、各显神通的阶段,厂商们可能还是倾向于在训练 AI 上加大投入,因而训练和人才成本可能只增不减。
推理成本上,鉴于微软和 OpenAI 的合作关系,OpenAI 其实一直以接近成本价的价格租用微软的服务器,这块儿基本降无可降。一位了解相关事项的业内人士表示,该微软租给 OpenAI 的集群一共配备了 35 万个英伟达 A100 芯片,ChatGPT 占用了其中约 29 万个芯片(占集群的 80% 以上),定价约为每个 A100 每小时 1.3 美元。但在技术架构上未来还有降低推理成本的可能,如果采用模型压缩、量化、并行化等技术,以及合理选择模型规模等等手段,还是有机会实现性能和成本的平衡。
占 40 亿美元的推理成本是更大头,如果能降下来,还是很可观的。毕竟如果事情往对 OpenAI 更有利的方向发展,未来会有更多人使用它,当然可能不付费,但会产生推理成本,下面我们也会提到。
另外,除了和微软的合作,OpenAI 目前也在积极推进和其他大型企业和机构的合作,可能也会有机会分担一定的成本。
收入方面,OpenAI 的 GPT 系列模型无疑是史上最强,但就赚钱能力来说,现在的局面可以说是十分复杂。
OpenAI 34 亿美元 ARR 拆分| 数据来源:FutureResearch
toC 订阅收入
OpenAI 更大的收入,超过 55% 来自于 ChatGPT Plus 用户,全球大约有 770万个人用户支付了 20 万美元的订阅费用。但是如果按照 AI 能力提升、AI 产品普及去判断 ChatGPT 的用户会逐步增加可能是对的,但 ChatGPT Plus 的个人用户会继续增长,可能就有点过于草率了。
首先,全球能够支付得起 20 美元/月来使用 AI bot 的总人数,可能就不多。经济条件够、有强烈的工作或者学习需求,是 2 个硬性条件。
在这之外,AI 能力的演进,反而在推动原本花钱的人变成免费用户。
一是自己卷自己。例如本来订阅过 GPT-4 的我,支持图片上传、各种小功能的 GPT-4o 免费之后,自然就取消了订阅。而我们编辑部之前有大概 1/3 的人都花钱订阅了 ChatGPT,而现在都在考虑取消订阅。
一个是别人卷自己。Claude Sonnet 出来之后,很多人都转过去了,这种现象并不少见。
这其实是这几个头部的大模型在卷,能力在拉近,AI 用户本身就爱尝新,粘性并不存在。
另一个在 toC 个人用户上的问题在于,当不付费的用户越来越多,不产生收入也就算了,产生的推理成本切切实实存在的,据 The Information 报道,免费用户的数量在数百万左右。另外一个“坏消息”是,ChatGPT 要被集成到 iPhone 中去,更恐怖的是,苹果并不会付钱,就是这么强势。所以,上面会提及推理成本的下降对 OpenAI 来说,非常关键。
而随着苹果和 ChatGPT 的高强度联通,可能会出现新的生态系统而诞生新的商业机会,但前提是 OpenAI 能够活着等到那天。
另外,随着大模型技术的成熟,距离应用层的爆发也更近一步,而 OpenAI 企业目前暂未推出除了 ChatGPT 以外的独立 C 端应用产品,就 OpenAI 本身的技术能力和产品知名度来看,可能不需要花费很多额外的成本,不知道这里未来是否有可能成为一块收入组成。
ToB 收入
toB 方面,企业版和团队版加起来算是第二大收入,OpenAI 在今年与 PwC 合作来分销,但企业服务这块的竞争激烈程度只能说比 toC 有增无减。
而 toB 的另一块,API,其实我们当时看到数据,之一反应就是,API 的收入竟然有点低?但仔细一想确实能找到合理性,首先大模型的价格战真的是异常热闹,API 的价格一降再降。搜一搜新闻,差不多都是某大模型 API 降级 95+% 以上,这里面的某大模型基本可以替换成任何有头有脸的大模型的名字。
而大模型们的钱,很大一部分都被云服务商赚走了。集成了各家大模型的云厂商的财务数据一个比一个好看。例如没什么存在感的 Google Cloud,昨天发布 2024 年 Q2 财报,Google Cloud 首次实现季度收入超过 100 亿美元,营业利润超过 10 亿美元。
而大模型本身,却是一边承担着极高的研发压力,另一方面却是只能分到三瓜俩枣。
这样来看,几种现有的收入模式,增长较为困难,更多可能还是要开源,The Information 提及了 OpenAI 可能计划推出真正赚钱的搜索、以及可能 toB 企业迅速买单的 PC Agent。
只能说,对于 OpenAI 来说,好消息,是他们的收入增长比成本增长快,而他的对手,更差劲一些。现在势头比较猛的 Anthropic,收入大概是 OpenAI 的 1/10-1/5,但亏损却有 OpenAI 的一半。相对“健康”的财务管理和与对手拉开差距占领更多市场份额,成为了大模型的唯一解。
坏消息是,在闭源模型抢占市场这条路线之外,还有 Meta 这样的开源选手,昨天推出的 Llama3.1 405B 在各场景下已经开始对标闭源模型 GPT-4o 和 Claude 3.5 Sonnet 了。当开源模型的能力开始赶上闭源模型,AI 行业的市场格局可能会发生改变,而在这之上建立的商业模式,可能就不再成立。
另外,在上一轮融资中已经有不少老股东被未选择跟投,当然这其中既有资本本身的投资能力和偏好等主观因素,也有 OpenAI 始终不稳定的组织架构、市场前景暂不明确等客观原因。
不过无论如何,OpenAI 仍然是那个最有希望活下去的大模型创企,因为在当下语境,有多少人希望 ChatGPT 的大厦崩塌,就有多少人希望 ChatGPT 的传奇继续。
商业世界中,产品和钱很多时候都是数字,由一个个数字吸引另一些些数字。
发表评论