CoreWeave 在周五开始交易时表现平平。该公司周四的定价为 40 美元,低于此前宣布的 47-50 美元价格区间。同时还减少了发行股票数量。
总的来说,CoreWeave 在上市首日筹集了 15 亿美元,市值达到 140 亿美元,而不是原本期望的超过 30 亿美元融资和更高估值。股票开盘价为 39 美元(真遗憾!),收盘价为 40 美元,市场反应可以说相当冷淡。
尽管如此,该公司的 IPO 仍是迄今为止最大的 AI 相关上市案例,也是自 2021 年以来美国最大的科技 IPO。
首席战略官 Brian Venturo 身着普通的白色连帽衫,坐在一间普通的会议室里,带着明显的新泽西口音,他告诉 TechCrunch 自己感到非常幸运。
这一切都始于他和他的对冲基金朋友们在上一个合资项目失败后有了一些空闲时间。
他曾在 CoreWeave 联合创始人兼 CEO Michael Intrator 创立的能源行业对冲基金 Hudson Ridge 担任投资组合经理。他们开发了一个机器学习模型,用于在数据密集型的能源行业进行投资决策。在那里他们认识了联合创始人 Brannin McBee,后者经营着他们使用的数据公司。
但在美国转向页岩油开采热潮后,他们关闭了 Hudson Ridge,"有了很多空闲时间," Venturo 说。
接下来是加密货币。他们想要进入这个领域,但首先"想从商品角度理解这是如何运作的," Venturo 说。"所以我们开始在曼哈顿办公室的台球桌上进行挖矿。"
数千个 GPU 的仓库
就像吃薯片一样,一个 GPU 变成了 10 个,10 个变成了 1000 个。矿机从台球桌转移到了壁橱。
"接下来我们知道的是,我们去了最老套的地方。我们去了我祖父在新泽西的车库,"他开玩笑地说。后来他们的金融界朋友也想加入,于是他们买了更多设备。
"我们曾经是世界上最大的以太坊矿工,持续了约两年半,"他说。"在某个时候,我们拥有 5 万个 Nvidia 消费级 GPU。"
这些芯片本来是为消费级 PC 玩游戏设计的,而不是在"没有空调或通风设备的仓库"里 24/7 运行。因此联合创始人们构建了"疯狂的自动化和健康检查 [系统],让这些低端 GPU 在最恶劣的环境中运行。"
团队知道他们想要将 GPU 帝国用于其他用途,比如 AI 训练。但他们也需要学习如何做到这一点。
于是他们与开源组织 EleutherAI 建立了联系,该组织正在开发一个大语言模型。CoreWeave 提供 GPU 访问权限以换取学习 AI 训练的机会,并在 2022 年宣布了合作关系。
"我们原本只是想了解基础设施是如何运作的," Venturo 说。但 EleutherAI 正在与数百家正在创建 AI 初创公司的人合作,"这对我们来说是一个完全的跳板时刻。"
与 EleutherAI 合作带来的良好口碑使这些初创公司成为付费客户。"完全是运气让我们开始了训练业务," Venturo 说。
Stability AI 通过 EleutherAI 了解到 CoreWeave,并成为客户。创始人需要更多资金来建设更好的基础设施。
他们与 Magnetar 的投资者共进晚餐,"我当时真的在敲打餐桌,"说服他们相信 AI 的未来,Venturo 说。Magnetar 给他们开了一张据他说是 1 亿美元的支票。
开源铺平道路
OpenAI 通过其与开源社区的合作了解到了 CoreWeave。而 Microsoft 则通过 OpenAI 认识了这家公司。Microsoft 成为其最大客户,因为当时它是 OpenAI 最大的投资者和唯一的云提供商。
现在情况已经改变。OpenAI 最近与 CoreWeave 签署了 120 亿美元的协议,取代 Microsoft 成为其最大客户。
如今 CoreWeave 拥有 32 个数据中心和 25 万个 GPU,包括难以获得的 Nvidia Blackwell 芯片,该公司表示这些芯片支持 AI 推理。
Venturo 承认,CoreWeave 76 亿美元的惊人债务引起了广泛关注,据《金融时报》报道,其中大部分需要在两年内偿还。考虑到 CoreWeave 19 亿美元的收入(即使据称有 150 亿美元的合同),这笔债务是投资者谨慎的一个重要原因。
然而,Venturo 坚称 CoreWeave 已经将每个客户交易都结构化,以覆盖购买所需 GPU 的债务。更重要的是,他意识到三个从对冲基金转型为加密货币矿工,现在经营着有影响力的 AI 训练基础设施的人经历了一段疯狂的旅程。
"一路上有太多幸运的因素,简直太疯狂了,"他说。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。