云基礎設施初創公司 Together AI Inc. 在最新一輪融資中籌集了 3.05 億美元,估值達到 33 億美元。
該公司今日宣布完成由 General Catalyst 和 Prosperity7 共同領投的 B 輪融資。超過十幾家投資方參與其中,包括 Nvidia Corp.、Salesforce Ventures 以及思科系統公司前首席執行官 John Chambers。
總部位于舊金山的 Together AI 運營著一個針對 AI 模型運行優化的公有云平臺。該平臺使開發者能夠配置具有數千個圖形處理器的服務器集群。Together AI 的數據中心配備了多種 Nvidia Corp. GPU,包括芯片制造商最新最強大的處理器 Blackwell B200。
Together AI 在名為 Inference Engine 的軟件系統上運行客戶的 AI 模型。據該公司稱,其推理性能是主要公有云服務的兩倍以上。該軟件實現高速度的方式之一是將 FlashAttention-3 算法應用于客戶的 AI 模型。
大語言模型在分析用戶輸入時會考慮上下文數據,如歷史提示。它們使用注意力機制組件來實現這一點。Together AI 使用的性能優化算法 FlashAttention-3 通過重新組織 LLM 注意力機制執行計算的順序來工作。此外,該算法還減少了 LLM 在底層 GPU 邏輯電路和 HBM 內存之間傳輸的數據量。
Together AI 的 Inference Engine 還實現了第二個性能優化技術:推測解碼。大語言模型通常一次生成一個 token(數據單位)的提示響應。推測解碼允許大語言模型同時生成多個 token 以加快工作流程。
據 Together AI 稱,Inference Engine 使企業能夠在其平臺上部署現成和定制模型。
對于選擇構建定制大語言模型的客戶,該云服務提供商提供了一套名為 Training Stack 的訓練工具。與 Inference Engine 一樣,它使用 FlashAttention-3 來加速處理。Together AI 創建了一個包含超過 30 萬億個 token 的開源數據集,以加快客戶的 AI 訓練進程。
對于希望在其平臺上運行現成大語言模型的開發者,該公司提供了超過 200 個開源神經網絡庫。內置的微調工具使用組織的訓練數據來定制這些算法成為可能。Together AI 表示,開發者只需一個命令就可以啟動微調項目。
Together AI 首席執行官 Vipul Ved Prakash 表示:"我們為這個 AI 優先的世界構建了一家云計算公司——將最先進的開源模型和高性能基礎設施與 AI 效率和可擴展性的前沿研究相結合。"
此次融資公告之際,公司年度經常性收入已達到 1 億美元。Together AI 表示,其平臺被超過 45 萬開發者使用,包括 Salesforce Inc.、DuckDuckGo Inc. 和 Mozilla Foundation 的工程師。
該公司將利用新資金增強其云平臺。它最近獲得了 20 千兆瓦的發電能力,以支持新的 AI 集群。其中一個即將建成的集群將配備 36,000 個 Nvidia Corp. 的 GB200 NVL72 芯片,每個芯片包含兩個中央處理器和四個 Blackwell B200 圖形卡。