查看原文
其他

红杉领投,估值5.52亿美元!复旦学子、PyTorch前负责人林乔创业项目FireWorks AI完成5200万美元B轮融资

FireWorks 明说开源
2024-08-28
点击卡片关注一下,感谢您的支持!

Fireworks AI 通过提供一站式生成式人工智能平台服务,旨在以更低的价格和简化的流程协助开发者运行、微调和分享大型语言模型(LLMs),从而加速企业向 AI 驱动的商业模式转型,他们核心强调一个概念:复合人工智能系统(Compound AI Systems)Fireworks AI 的联合创始人兼 CEO 林乔(Lin Qiao),本科毕业于复旦大学,曾在 Meta 担任高级工程总监期间领导了 PyTorch(前PyTorch负责人)、AI 编译器和设备上 AI 平台的开发工作。


Fireworks AI 此前在 A 轮融资中筹集了 2500 万美元。融资由 Benchmark 领投,普通合伙人 Eric Vishria 将加入公司董事会,红杉资本以及包括 Databricks Ventures 在内的天使投资者、Snowflake 前首席执行官 Frank Slootman、Scale AI 首席执行官 Alexandr Wang 以及来自 LinkedIn、Confluence 的高管参与其中,还包括 Meta 和 OnePassword 等。其创始团队还包括德米特罗·朱尔加科夫 (Dmytro Dzhulgakov)、德米特罗·伊夫琴科 (Dmytro Ivchenko)、詹姆斯·里德 (James Reed)、赵晨宇、Pawel Garbacki 和 Benny Chen。


7月8日,FireWorks AI官方博客宣布了最新一轮的融资消息,即完成了5200万美元B轮融资。

下面是官方Blog内容,作者林乔:

Highlights:

  • Fireworks AI成功筹集了5200万美元资金,红杉资本领投,公司估值因此提升至5.52亿美元。这笔资金将用于加速开发复合人工智能系统、扩大团队规模以及提升平台功能,从而推动人工智能在生产领域的应用。

  • Fireworks AI对其推理平台进行了升级,引入了最新模型、高级个性化定制功能以及提升了生产准备性。这些新特性让企业能够更轻松、迅速地定制模型和构建人工智能应用,无需依赖庞大的机器学习工程师或数据科学家团队。

  • Fireworks AI与MongoDB、Meta、NVIDIA、AMD等多家公司建立了合作伙伴关系。这些合作将为开发者提供一个准备就绪的生产平台,并提供从最先进模型到向量数据库等基础构建模块。

  • Fireworks AI正引领着向复合人工智能系统转型的趋势。我们的推理平台不仅提供了最快、最具成本效益的模型API,还通过强大的工具进行了增强,使开发者能够轻松组合多个模型、模态、检索器以及外部工具,构建更为复杂的系统。


#Fireworks AI成功筹集了5200万美元资金,由红杉资本领投,公司估值因此提升至5.52亿美元

我们非常高兴地宣布,Fireworks AI完成了由红杉资本领投的5200万美元B轮融资,公司估值提升至5.52亿美元。此轮的其他投资者包括NVIDIA、AMD和MongoDB Ventures。之前的投资者阵容强大,包括Benchmark、Databricks Ventures、前Snowflake首席执行官Frank Slootman、前Meta首席运营官Sheryl Sandberg、Airtable首席执行官Howie Liu、Scale AI首席执行官Alexandr Wang,以及来自LinkedIn、Confluent、Meta和OnePassword的高层管理人员。


这轮融资使Fireworks AI累计融资达到7700万美元。这笔投资将帮助我们推动行业向复合人工智能系统的转变,扩大我们的团队规模,并提升我们的平台功能,使开发者能够迅速将人工智能应用从原型开发阶段推进到生产部署。


红杉资本普通合伙人Sonya Huang对我说:“Fireworks AI正处于引领行业变革的最佳位置。他们团队在高性能推理堆栈构建方面的专业知识和启用复合人工智能系统的创新方法,将赋予开发者可扩展的人工智能解决方案,这些方案以前仅限于科技巨头使用。


#助力开发者将热点技术转化为高价值人工智能

自成立以来,Fireworks AI一直为开发者提供最快、最具成本效益的推理服务,用于处理流行模型。如今,我们提供超过100个最先进的模型,涵盖文本、图像、音频、嵌入和多模态格式,这些模型经过优化,以降低延迟、提高吞吐量和减少每令牌的成本。我们的推理时间比vLLM快了12倍,比GPT4快了40倍。我们平台每天处理1400亿个令牌,API正常运行时间高达99.99%。


与通用的专有巨型模型不同,这些模型通常是标准化的、非私有的且难以定制,Fireworks AI提供更小、更适合生产的模型,这些模型可以私有和安全地部署。通过使用最少的人工策划数据,我们的超快速LoRA微调技术允许开发者快速定制模型以满足特定需求,从数据集准备到查询微调模型的转换只需几分钟。这些微调模型无缝部署,保持了与我们的基础模型相同的性能和成本优势。


像Cresta、Cursor和Liner这样的领先AI初创公司的开发者,以及像DoorDash、Quora和Upwork这样的数字原生巨头,都选择Fireworks AI,因为我们提供更小、更专业的模型。例如,Cursor使用了Fireworks AI定制的Llama 3-70b模型,在代码生成用例中实现了1000 tokens/sec的速度,如即时应用、智能重写和光标预测,这些都极大地提升了开发者的生产力。


#近期平台升级及合作伙伴

我们持续通过与人工智能领域的顶尖供应商紧密合作来提升我们的平台,具体合作包括:

  • 与MongoDB联手,用于互动式检索增强生成(RAG)。

  • 与Meta、Mistral以及Stability AI的合作,确保在最先进模型上的最低延迟表现:对于Llama 3 70b模型,延迟时间仅为0.27秒;对于Mixtral 8x22b和7b模型,延迟时间缩短至0.25秒;对于采用Stable Diffusion XL处理的1024x1024像素图像,延迟时间控制在1.2秒。

  • 与NVIDIA、AMD、AWS、Google Cloud Platform以及Oracle Cloud在基础设施优化方面的合作。


在过去的三个月中,我们推出了一系列新特性,极大地提升了性能同时减少了成本,有效缩小了原型设计与生产部署之间的差距。这些新特性涵盖:

  • FireAttention V2,这是基于定制CUDA内核的服务堆栈,针对RAG、多回合推理和多模态应用中的长上下文提示,推理速度提升了12倍。

  • Firefunction-v2,这是一种与GPT4o性能相当的功能调用模型,但运行速度比其快2.5倍,且成本仅为其10%。

  • 除了无服务器和预分配云资源选项之外,我们还增加了按需GPU部署的选择,这对于那些需要高可靠性和快速响应但又不想被长期合约束缚的正在扩张的企业而言,是个理想的解决方案。

  • 针对所有价格层级的开发者,我们提供了即用即付的计费方式、团队协作工具以及一套全新的指标监控面板。


#人工智能的未来是复合人工智能系统

虽然排行榜强调大模型,但现实世界中的人工智能成果,特别是在生产环境中,越来越多地来自于由多个组件组成的复合系统。复合人工智能系统利用各种相互作用的部分来应对任务,如多个模型、多模态、检索器、外部工具、数据和知识。类似于微服务,复合人工智能系统中的代理使用大语言模型完成单个任务,并集体解决复杂问题。这种模块化的方法使开发者能够以最少的编码创建多轮次、多任务的人工智能代理工作流程。它降低了成本和复杂性,同时提高了诸如搜索、领域专家辅助(例如编程、数学、医学)等应用的可靠性和速度。这一方法最初由加州大学伯克利分校人工智能研究实验室(BAIR)的Matei Zaharia等人在一篇博文中提出。


最近,Fireworks AI推出了一种复合人工智能系统的基本构建模块:FireFunction V2,这是一个开放权重的功能调用模型。FireFunction作为一个协调者,跨越了多个模型及其多模态能力、外部数据和知识源、搜索、转录以及其他API,同时保留了大语言模型的核心能力,如多轮对话。


关键特性包括:

  • 开放权重模型,开箱即用提供高准确性和快速性能

  • 具有低延迟和高吞吐量推理的云端和本地部署

  • 基于模式的约束生成,以提高错误处理能力

  • 通过微调和自定义部署实现定制能力

  • 与流行的人工智能框架和广泛外部工具的无缝集成


Superhuman,一家人工智能驱动的电子邮件提供商,使用Fireworks创建了Ask AI,这是一个复合型人工智能系统,能从你的收件箱中迅速给出答案。用户只需提问,无需记住发件人、猜测关键词或搜索邮件。Ask AI利用函数调用来与搜索和日历工具交互,提示大型语言模型,并生成快速响应。


#展望未来

我们对Fireworks AI和AI社区的这个全新阶段兴奋不已,因为这将大大减少AI应用在实际生产中的复杂度与效率低下问题。当初我们创建Fireworks,就是为了让AI初创公司、数字原生企业和全球500强企业能够打破常规,用革命性的产品、体验以及更高的工作效率来改写游戏规则。我们非常期待看到你们将会颠覆什么。

在首席执行官林乔的带领下,Fireworks 提供了一个 GenAI 平台,使开发人员能够运行、微调和共享大型语言模型 (LLM),以最好地解决产品问题。该公司不是开发自己的生成式人工智能解决方案,而是为延迟优化和吞吐量优化的设置提供机器性能,同时最大限度地降低服务成本。

目前,Fireworks AI 已被超过 12,000 名开发人员使用,每天为超过 25 亿个代币提供服务,并且不断创新。他们刚刚发布了 FireFunction-v1,这是一种基于 Mixtral 的开放权重模型,旨在增强函数调用模型,使开发人员能够将外部知识纳入其 LLM 应用程序中。他们还构建了 FireLLaVA(一种具有商业许可的 LLaVA 多模态模型)和 FireAttention(一种自定义 CUDA 内核),针对多查询注意力模型进行了优化。

该公司目前为 Tome、Poe 和 Sourcegraph 等客户提供服务。





亲爱的读者们,不星标《明说开源》公众号,不仅会收不到最新推送,还会看不到主理人精心挑选的封面大图星标《明说开源》,不错过每一篇最值得阅读的开源文章。
编辑:李小明
@明说开源


继续滑动看下一个
明说开源
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存