← 返回首頁 🔍 個股研究

Cerebras Systems(CBRS)深度分析:一塊餐碟大的晶片,憑甚麼挑戰英偉達?IPO 估值 $350 億全拆解

📅 2026.05.12 ⏱ 22 分鐘 ✍ 慢慢富團隊
巨型晶圓晶片與小型 GPU 的大小對比,視覺化呈現 57 倍面積差距 WSE-3 46,225 mm² 4 萬億晶體管 · 900K AI 核心 GPU ~800 mm² 57× 面積差距 Cerebras · 晶圓級 AI 晶片 一塊餐碟大的晶片 vs 一枚郵票大的 GPU IPO 核心數據 估值 ~$350 億 2025 營業額 $5.1 億 OpenAI 合約 >$200 億 超額認購 20 倍 🔍 個股研究 慢慢富 · Cerebras 個股深度分析

TLDR 懶人包

Cerebras Systems(股票代號 CBRS)是一間總部位於加州的 AI 晶片公司,即將於 2026 年 5 月 14 日在納斯達克上市。

核心技術:晶圓級引擎(Wafer-Scale Engine, WSE)— 把整塊矽晶圓做成一顆晶片,面積是英偉達 GPU 的 57 倍,擁有 4 萬億個晶體管和 90 萬個 AI 核心。Cerebras 官方聲稱推理速度比英偉達 B200 快 21 倍(尚未經第三方基準測試驗證)。

關鍵合約:與 OpenAI 簽訂超過 $200 億的多年合約,提供 750MW AI 推理算力;2026 年 3 月與 Amazon AWS 達成合作,AWS 成為首個在自家數據中心部署 Cerebras 晶圓級晶片的超大型雲端商。

財務:2025 年營業額 $5.1 億(按年增長 76%);GAAP 淨利潤 $2.378 億(但包含 $3.633 億一次性非現金收益,實際營運虧損 $7,570 萬);86% 收入來自阿聯酋兩間關聯公司。

IPO 與估值:定價區間從 $115-125 上調至 $150-160,20 倍超額認購;以上限價計基本市值約 $350 億(完全攤薄約 $488 億),市銷率約 69 倍。

主要風險:客戶高度集中、100% 依賴台積電單一製程、CFIUS 審查陰影、英偉達生態護城河、營運仍在虧損。

引子:如果英偉達是廚神,Cerebras 就是那個把整個廚房搬進一口鍋的人

在 AI 晶片的世界裏,英偉達(NVIDIA)是無可爭議的霸主。它的 GPU 就像一位經驗豐富的廚師 — 手速極快、刀工精準,但每次只能用一個砧板。當你需要更大的產能,解決方法是請更多廚師、擺更多砧板,然後想辦法讓他們協調合作。這就是為甚麼 AI 數據中心要用成千上萬顆 GPU 串聯在一起 — 但廚師之間的溝通(數據傳輸)本身就是效率的瓶頸。

Cerebras 的做法完全不同。它沒有請更多廚師,而是造了一口巨無霸的鍋 — 大到整個廚房只需要這一口。它把整塊矽晶圓(wafer)直接做成一顆晶片,面積相當於一隻餐碟,是普通 GPU 的 57 倍大。所有計算核心都在同一塊晶片上,數據不需要在不同晶片之間來回搬運,速度自然快得多。

這個瘋狂的想法,半導體業界想了七十年都做不到。Cerebras 不僅做到了,還拿下了 OpenAI 超過 $200 億的合約、讓 Amazon 把它的晶片放進自家數據中心、吸引了包括 Benchmark、紅杉資本在內的頂級投資者,甚至連競爭對手 AMD 也參與了它的融資。

2026 年 5 月 14 日,Cerebras 將以股票代號 CBRS 在納斯達克上市,IPO 定價區間已從 $115-125 上調至 $150-160,認購倍數高達 20 倍。這是 2026 年最受矚目的 AI 科技 IPO — 但在狂熱背後,這間公司到底值不值這個價?

這篇文章,我們會用最易懂的方式,帶你看清 Cerebras 的技術到底有多厲害、它的客戶為甚麼願意下 $200 億的訂單、IPO 撤回又重來的戲劇性故事、以及投資者必須認清的五大風險。

§1 創辦人故事:賣了一間公司給 AMD,再創一間挑戰英偉達

Cerebras 的故事要從創辦人 Andrew Feldman 說起。Feldman 不是那種在車庫裡敲代碼的矽谷少年天才 — 他是一位連續創業者,在創辦 Cerebras 之前已經有過兩次成功的退出。

2007 年,Feldman 和 Gary Lauterbach 共同創辦了 SeaMicro,這間公司開創了「微型伺服器」(microserver)這個全新品類,大幅降低數據中心的耗電量和佔地面積。2012 年,AMD 以 $3.34 億收購了 SeaMicro。收購後,Feldman 在 AMD 擔任企業副總裁,負責數據中心伺服器業務。

在 AMD 工作期間,Feldman 看到了一個根本性的問題:AI 的計算需求正在以指數級增長,但晶片設計的進步速度跟不上。傳統的做法是把晶片做得更小、更精密(摩爾定律),或者把更多晶片串聯起來。但無論哪種方法,都受制於一個物理限制 — 晶片之間的數據傳輸速度遠遠慢於晶片內部的處理速度。

Feldman 的解決方案大膽到近乎瘋狂:不要切割晶圓。半導體製造的標準流程是把一塊直徑 300 毫米的矽晶圓切割成數百顆小晶片,再逐一封裝。Feldman 說:如果我們不切呢?如果整塊晶圓就是一顆晶片呢?

2016 年 3 月,Feldman 帶着 SeaMicro 的核心成員 — 包括 Gary Lauterbach、Michael James、Sean Lie 和 Jean-Philippe Fricker — 共同創立了 Cerebras Systems。公司名字來自拉丁文「cerebrum」(大腦),野心不言而喻。

接下來的四年,Cerebras 幾乎完全隱身。沒有產品發佈、沒有新聞稿、沒有參加展覽。五個人和一支不斷壯大的工程團隊,默默解決一個半導體業界認為不可能解決的問題。

§2 技術拆解:為甚麼把整塊晶圓做成晶片這麼難?

要理解 Cerebras 的技術有多革命性,你需要先明白一個基本事實。所謂「晶圓」(wafer),是一塊圓形的超純矽薄片,直徑大約 30 厘米,像一張薄薄的光碟。所有晶片都是在這塊晶圓上製造的 — 先用光刻技術在上面「印」出幾百顆指甲蓋大小的晶片,然後把晶圓切開,每一小塊就是一顆獨立的晶片。但 Cerebras 做了一件從來沒人成功做過的事:它不切,直接把整塊晶圓做成一顆巨大的晶片。在半導體製造的七十年歷史中,從來沒有人成功做到 — 不是沒人想過,是所有人都失敗了。

原因很簡單:良率

想像你在一張白紙上畫一幅巨型油畫。紙上一定會有瑕疵 — 可能有一粒灰塵、一個小坑、一道刮痕。如果你把紙切成 100 張小紙片,其中 95 張可能是完美的,你扔掉那 5 張就好。但如果你堅持在整張紙上畫,一粒灰塵就可能毀掉整幅畫。

矽晶圓也是一樣。在製造過程中,晶圓上必然會有缺陷。傳統晶片很小(英偉達單顆 GPU 晶片大約 800 平方毫米,差不多是一枚郵票的大小),所以大部分晶片都能避開缺陷。但 Cerebras 的 WSE-3 佔據整塊晶圓(46,225 平方毫米),上面一定會有缺陷。

Cerebras 的解決方案非常巧妙:冗餘設計。它在晶片上多放了額外的備用核心。當某個核心落在缺陷位置上,系統會自動繞過它,啟用旁邊的備用核心。就像你在高速公路上開車,前方有個坑洞,導航系統自動幫你切換到旁邊的車道,你甚至感覺不到。

除了良率問題,Cerebras 還必須解決另外兩個工程難題:

散熱:一顆普通 GPU 的功耗大約 700 瓦,已經需要精密的散熱系統。Cerebras 的 WSE-3 功耗高達數千瓦,在一塊餐碟大小的面積上。公司為此設計了一套專用的水冷系統,整合在它的 CS-3 伺服器機箱中。

互連:晶片上 90 萬個核心之間需要以極高速度交換數據。Cerebras 設計了一套名為 Swarm 的片上互連架構,利用矽片上的金屬導線讓數據在核心之間高速流動,完全避免了傳統多晶片方案中「晶片之間要透過外部線路溝通」的瓶頸。(注:Cerebras 另有一套叫 SwarmX 的技術,是用於多台 CS-3 伺服器之間的集群互連,兩者是不同層級的設計。)

冗餘到底有幾多?— 良率工程的細節

Cerebras 從未公開 WSE-3 上備用核心的確切比例,但業界估計約 1.5%。也就是說,90 萬個核心當中,大約 13,000 個是「備胎」。這個數字並非拍腦袋 — 根據台積電 5nm 製程的歷史缺陷密度(每平方厘米約 0.1 個致命缺陷),一塊 46,225 平方毫米的晶圓理論上會出現 40-50 個缺陷點。Cerebras 把每個核心切到只有 5 萬平方微米大,讓單一缺陷只殺死一個核心;再用內建的路由表自動把資料流繞過壞點。這就像把一條八線公路改成四十線公路 — 即使其中幾條被封了,車流依然順暢。

但這套設計有代價:1.5% 的核心面積永遠是浪費的、路由邏輯本身又佔晶片約 3% 的面積,加上備援電源軌與測試電路,WSE-3 真正用來做運算的面積大約 85%。傳統 GPU 的這個數字可以達到 95% 以上。Cerebras 是用面積換良率 — 它買得起這個浪費,因為它的面積本身就是英偉達的 57 倍。

SRAM-on-chip vs HBM:兩條截然不同的記憶體路線

另一個關鍵設計值得拆解:Cerebras 把所有運算記憶體都做在晶片上(on-chip SRAM),而英偉達和 AMD 用的是片外 HBM(高頻寬記憶體)。差別可以用「冰箱位置」來理解。英偉達 B200 的 HBM 像把冰箱放在廚房旁邊的儲物室 — 容量大(192 GB),但每次拿食材要走幾步路。Cerebras 的 SRAM 像把所有食材放在廚師伸手可及的位置 — 容量小很多(44 GB),但拿取速度是 HBM 的 200 多倍。對於需要重複讀取同一份模型權重的推理工作來說,「伸手可及」遠比「容量大」重要 — 這就是 Cerebras 推理速度能甩開 GPU 一條街的物理根源。

反過來,當模型大過 44 GB(例如 Llama 3.1 405B 需要約 800 GB),Cerebras 就必須把模型切片放在多台 CS-3 上協同工作,系統複雜度上升、優勢被部分抵消。所以 Cerebras 最擅長的場景是「中等大小、超高吞吐」的推理任務 — 例如 Llama 70B、企業內部微調模型、以及 OpenAI 的 GPT-OSS 系列。

對比 AMD 的 chiplet 路線

還有第三條路:AMD 的 chiplet(小晶片)方案。以最新旗艦 MI350X 為例,它不是一塊完整大晶片,而是把多顆運算晶片與 I/O 晶片堆疊起來,用 3D 封裝技術連接。這條路的哲學是「分而治之」 — 每個小晶片良率高、易於製造,再湊成大算力。Cerebras 剛好相反 — 直接做整體大晶片,用冗餘解決良率。兩條路殊途同歸,都是為了突破單晶片的物理限制;但 chiplet 仍然受制於晶片之間的互連頻寬(即使是先進封裝,也比晶片內部慢一個量級),而晶圓級晶片的核心之間完全沒有這個瓶頸。哪一條路勝出,未來五年的 AI 工作負載結構會給出答案。

§3 WSE-3 vs 英偉達 vs AMD:三種哲學的較量

AI 晶片市場目前有三種截然不同的設計哲學。要理解 Cerebras 的定位,最好用一個比喻:假設你要搬一座山的泥土。

英偉達的方法:派出一支由幾千輛小貨車組成的車隊。每輛車都很快、很靈活,但車與車之間需要協調 — 誰先出發、誰走哪條路、怎麼避免撞車。車隊越大,協調的成本就越高。這就是英偉達的 GPU 集群策略:用成千上萬顆 GPU 並行計算,透過 NVLink 等高速互連技術協調。英偉達的優勢是生態系統 — CUDA 軟件平台已經有二十年的積累,幾乎所有 AI 框架都針對它優化過。

AMD 的方法:和英偉達類似,也是用車隊搬泥土,但用的是不同品牌的貨車(MI350 系列 GPU),而且價錢更便宜。AMD 的策略是做「性價比更高的替代品」,用開源的 ROCm 軟件平台吸引不想被英偉達鎖定的客戶。

Cerebras 的方法:不用車隊,直接開一部巨無霸泥頭車。一部車就能裝下所有泥土。沒有車隊協調的問題,沒有塞車,一趟搞定。但這部車非常貴、非常難造,而且只有一間工廠能幫你生產。

以下是三者旗艦產品的關鍵規格對比(資料截至 2026 年 5 月):

規格 Cerebras WSE-3 英偉達 B200 AMD MI350X
晶片面積 46,225 mm² ~800 mm²(單晶片,雙晶片封裝) ~1,000+ mm²(封裝)
晶體管數量 4 萬億 2,080 億 1,850 億
AI 核心數 900,000 ~20,480 (CUDA,雙晶片合計) ~16,384 (Stream)
片上記憶體 44 GB SRAM 192 GB HBM3e 288 GB HBM3e
記憶體頻寬 21 PB/s(SRAM) 8 TB/s(HBM) 8 TB/s(HBM)
製程 台積電 5nm 台積電 4nm 台積電 3nm/6nm
推理速度(Llama 3.1 405B) 2,500 tokens/s ~1,200 tokens/s 未公佈

注意:① WSE-3 的 21 PB/s 是片上 SRAM 頻寬,與英偉達的 HBM 頻寬屬於不同類型的記憶體,不可直接比較。SRAM 速度極快但容量較小(44 GB),HBM 容量大但速度相對較慢。② 推理速度來自各廠商官方數據,測試模型、批次大小和系統配置可能不同,數字僅供量級參考,不宜直接作橫向比較。③ B200 的 CUDA 核心和晶體管數量為雙晶片合計。

簡單來說,Cerebras 聲稱在推理速度上有顯著優勢(官方數據稱比英偉達 B200 快約 21 倍,尚未經第三方基準驗證),而且不需要複雜的分散式訓練代碼。用英偉達 4,000 顆 GPU 訓練一個 1,750 億參數的模型,通常需要約 20,000 行分散式訓練代碼;用 Cerebras 只需要 565 行 — 因為整個模型可以放進一塊晶片。

但英偉達的優勢在於生態系統。CUDA 平台經過二十年的打磨,幾乎所有 AI 研究員和工程師都懂得用。Cerebras 的軟件生態還在起步階段。這就像蘋果初推 iPhone 時,功能可能不如 Nokia,但 Nokia 有全球最大的應用程式庫。最後是誰贏了?生態系統可以追趕,但技術代差更難跨越。

性能之外:每張訓練單、每瓦電費的真實帳本

規格表上的數字只是一半故事,AI 客戶真正關心的是「每一塊錢買到多少 token」— token 是 AI 處理語言的基本單位,你可以理解為「一小段文字」,大約等於一個中文字或者半個英文單詞;AI 回答一條問題可能要生成幾百甚至幾千個 token,所以「每一塊錢買到多少 token」就是衡量 AI 算力性價比的核心指標。三個維度補完這幅圖。

整體擁有成本(TCO):一台 CS-3 系統業界估價約 $200-300 萬(Cerebras 從未公佈官方售價),能達 125 PFLOPS 稀疏算力。一台 NVIDIA DGX H200(8 顆 H200 GPU)約 $42-55 萬、32 PFLOPS。表面看 Cerebras 每 PFLOPS 略貴,但若計入電費、機架空間、NVLink/InfiniBand 網絡基建以及為支援超大模型而必須的多機互連成本,Cerebras 聲稱在 1,750 億參數以上的大模型訓練場景,TCO 比 GPU 集群低 30-40%(此數字出自 Cerebras 行銷材料,尚無獨立第三方驗證)。但在 70 億或 130 億參數以下的中小模型,GPU 仍然更划算 — 因為 Cerebras 的單機門檻太高,買不起就是買不起。

推理延遲:在 Llama 3.3 70B 上,Cerebras Inference 官方公佈生成速度達 2,100-2,200 token/s,遠超同級方案。作為參考,Groq LPU 在類似模型上約 1,000-1,200 token/s,NVIDIA H200 搭配 vLLM 優化在低並發場景約數百 token/s(具體數字因配置、批次大小差異極大)。需要強調的是,這些數字來自各廠商不同測試環境,不宜直接橫向比較,但 Cerebras 在「邊想邊打字」這類即時應用場景的速度優勢是業界普遍認可的。

能源效率:WSE-3 整套系統功耗約 23kW、125 PFLOPS,每瓦約 5.4 TFLOPS;NVIDIA B200 單卡 1kW、約 4.5 PFLOPS,每瓦約 4.5 TFLOPS。Cerebras 略有領先,但差距遠沒有速度那麼誇張。對電力成本佔總開支三成以上的雲端商來說,這 20% 能效差距,乘上幾百兆瓦的部署規模,就是每年數億美元電費差別。

但要說清楚一件事:以上數字都是 Cerebras 自己公佈或業界估算的,缺乏 MLPerf 這類獨立第三方基準的全面驗證。Cerebras 沒有提交 MLPerf 訓練排行榜成績 — 公司說基準測試本身偏向 GPU 架構、不適合衡量晶圓級晶片,但這個說法在業界並非毫無爭議。投資者在閱讀任何性能數字時,都應該記住一條鐵律:晶片廠商的官方數字向來偏樂觀,真實工作負載的差距通常會收窄。

§4 客戶名單:從阿聯酋到 OpenAI,一步步走進主流

Cerebras 的客戶演變,本身就是一個從邊緣走向主流的故事。

早期客戶(2019-2023):Cerebras 最初的客戶主要是科學研究機構和政府部門。美國能源部、美國國防部、Mayo Clinic(美國頂級醫療機構)、葛蘭素史克(GSK,全球藥廠巨頭)都是早期採用者。這些客戶的共同點是:他們需要處理極端複雜的計算問題(藥物發現、氣候模擬、核武模擬),而且不太在乎軟件生態是否成熟 — 反正他們的代碼都是自己寫的。

G42 時代(2023-2025):阿聯酋的 G42 集團成為 Cerebras 的最大客戶和投資者。2025 年,Cerebras 86% 的營業額來自兩間 G42 關聯公司 — 穆罕默德本扎耶德人工智能大學(MBZUAI)佔 62%,G42 本身佔 24%。這種極端的客戶集中度,後來成為 IPO 的最大爭議之一。

OpenAI 時代(2026 年起):2025 年 12 月 24 日,Cerebras 與 OpenAI 簽訂了一份改變命運的合約。OpenAI 承諾在 2026 至 2028 年間,向 Cerebras 購買 750MW 的 AI 推理算力,合約總值超過 $200 億。如果按三年平均計算,這相當於每年 $67 億的收入 — 是 Cerebras 2025 年全年營業額的 13 倍。

這筆交易的細節也很有趣:OpenAI 還向 Cerebras 提供約 $10 億的融資,幫助其建設數據中心;作為交換,Cerebras 向 OpenAI 發行了 3,340 萬股認股權證(warrants),與設備採購里程碑掛鉤。如果 OpenAI 在 2030 年前訂購了全部 2GW 的算力,就能獲得全部股份。

2026 年 1 月 23 日,Cerebras 開始向 OpenAI 交付算力。2 月 12 日,OpenAI 的 Codex-Spark 模型 — 由 Cerebras 基建提供動力 — 正式向公眾開放。這是 Cerebras 技術首次觸及數以億計的終端用戶。

Amazon AWS 合作(2026 年 3 月):如果說 OpenAI 合約是 Cerebras 的「冠名贊助商」,那 AWS 合作就是它的「入場券」。2026 年 3 月 13 日,AWS 宣佈成為首個在自家數據中心部署 Cerebras 晶片的超大型雲端商。根據 S-1 招股書披露,AWS 購買了約 $2.7 億的 Cerebras Class N 股份,並計劃在 2026 年下半年透過 Amazon Bedrock 提供基於 Cerebras 的 AI 推理服務。

這項合作的技術設計也值得注意:AWS 把推理流程拆成兩部分 — 用自家的 Trainium 晶片做「預填充」(prefill,即理解你的問題),再用 Cerebras CS-3 做「解碼」(decode,即生成回答)。這種「推理分離」架構充分利用了 Cerebras 在快速生成文字方面的壓倒性優勢。

除了 OpenAI 和 AWS,Meta(Facebook 母公司)也是 Cerebras 的客戶。從阿聯酋的大學到矽谷的三大科技巨頭,Cerebras 的客戶名單正在迅速升級 — 但能否把這些合約變成穩定的收入流,仍然是一個問號。

§5 財務全拆解:$5.1 億收入背後的真相

Cerebras 的財務數字初看之下非常亮眼,但細看之下卻充滿需要注意的細節。

先看頂線增長。Cerebras 的營業額從 2022 年的 $2,460 萬,飆升至 2023 年的 $7,870 萬、2024 年的 $2.903 億、再到 2025 年的 $5.1 億。四年間增長了超過 20 倍,增速無疑驚人。

再看利潤。2025 年的 GAAP 淨利潤為 $2.378 億(注:部分媒體引用 $8,790 萬的數字,是經兩類法分配予優先股後歸屬普通股的淨利潤,IPO 後優先股轉換則不再適用),乍看之下公司已經轉虧為盈 — 2024 年還虧損 $4.816 億。但這裡有一個關鍵的會計陷阱:損益表中有一筆 $3.633 億的一次性非現金收益,來自 G42 相關遠期合約的公允價值變動及終止。這筆非經營性收益出現在營運損益之下,掩蓋了公司的真實經營狀況。事實上,Cerebras 2025 年的營運虧損為 $7,570 萬(扣除股份薪酬後;若計入則 GAAP 營運虧損達 $1.459 億),比 2024 年同口徑的 $2,180 萬虧損擴大了超過兩倍。

換句話說:Cerebras 的核心業務仍然在虧錢。利潤表上的「盈利」是會計調整的結果,不是業務本身賺的錢。

另一個令人擔憂的數字:美國本土客戶的收入從 2024 年的 $2.827 億,下降到 2025 年的 $1.876 億,跌幅 34%。雖然 OpenAI 和 AWS 的合約將在 2026 年開始大規模貢獻收入,但目前的財務數據顯示,Cerebras 對阿聯酋客戶的依賴程度仍然極高。

最後看估值。以 IPO 上限價 $160 計算,Cerebras 的基本市值約為 $350 億(若計入認股權證等完全攤薄股份,則高達 $488 億)。以 2025 年 $5.1 億的營業額計算,基本市銷率(Price-to-Sales)約為 69 倍。作為對比,英偉達目前的市銷率約為 24 倍,AMD 約為 21 倍。Cerebras 的估值溢價,本質上是在為 OpenAI 合約的未來收入買單。

§6 IPO 風雲:被美國政府叫停,一年後浴火重生

Cerebras 的上市之路,本身就像一部荷里活劇本。

第一幕:首次衝刺(2024 年 9 月)。2024 年 9 月,Cerebras 向美國證券交易委員會(SEC)提交了 S-1 上市申請。當時公司剛完成 Series G 融資,估值 $81 億,一切看似順利。

第二幕:CFIUS 調查(2024 年 10 月-2025 年 3 月)。但就在 S-1 提交後不久,美國外國投資委員會(CFIUS)啟動了一項調查,針對 G42 在 Cerebras 中的持股。G42 是一間總部位於阿布扎比的 AI 公司,部分股權由阿聯酋主權財富基金穆巴達拉(Mubadala)持有。美國政府擔心的是:Cerebras 的尖端 AI 晶片技術,是否可能透過 G42 過去與中國的商業聯繫而外洩?

這不是沒有根據的擔憂。G42 在 2024 年之前確實與中國有業務往來。但為了緩解美國的安全顧慮,G42 做了幾件事:剝離所有中國投資、與微軟簽訂戰略合作協議、並且同意將其在 Cerebras 的持股轉換為無投票權股份

第三幕:撤回上市(2024 年底)。在 CFIUS 調查懸而未決的情況下,Cerebras 被迫撤回了 IPO 申請。對一間高速增長的 AI 晶片公司來說,這無疑是一記重擊。投資者開始質疑:地緣政治風險會不會永久拖累這間公司?

第四幕:峰迴路轉(2025 年 3 月-2026 年 4 月)。2025 年 3 月 31 日,CFIUS 正式宣佈調查完結,批准了 G42 的持股安排。同年 9 月,Cerebras 完成了 $11 億的 Series G 融資(估值 $81 億)。2026 年 2 月,Tiger Global 領投的 Series H 融資完成,估值一躍至 $230 億 — 五個月內翻了近三倍。2026 年 4 月 17 日,Cerebras 重新提交 S-1,這一次帶着 OpenAI 的 $200 億合約和 AWS 的合作協議,底氣完全不同。

第五幕:定價上調、20 倍超額認購(2026 年 5 月)。IPO 路演期間,投資者反應異常熱烈。原定發行 2,800 萬股、定價 $115-125 的計劃被推翻,改為發行 3,000 萬股、定價 $150-160。以上限價計算,Cerebras 將籌集約 $48 億,基本市值約 $350 億(完全攤薄約 $488 億)。認購倍數高達 20 倍。

從被美國政府叫停到 20 倍超額認購,Cerebras 只用了不到兩年。但 CFIUS 的陰影並未完全散去 — G42 仍然是公司的最大客戶和重要股東,任何地緣政治的變化都可能重新引發審查。

§7 融資歷程:從 $67M 到 $350 億的估值飛升

Cerebras 的融資歷程本身就是一部 AI 投資熱度的編年史。

2016 年 Series A,公司以約 $6,700 萬的估值融了 $2,700 萬,每股價格 $0.85。到 Series D 階段,估值突破 $17 億,正式晉升獨角獸。Series E 帶入超過 $2.7 億,估值升至 $24 億。

真正的轉捩點是 2025-2026 年。Series G(2025 年 9 月)融了 $11 億,由 Fidelity 和 Atreides Management 領投,估值 $81 億。僅僅五個月後,Series H(2026 年 2 月)由 Tiger Global 領投,估值飆至 $230 億 — 漲了近三倍。累計所有輪次,Cerebras 在上市前共融了約 $28 億的私人資本。

投資者名單也值得關注。背後的風險投資機構包括 Benchmark、紅杉資本(Sequoia Capital)、Coatue Management 和 Altimeter Capital。但最令人玩味的是:AMD 也參與了最新一輪融資。AMD 是 Cerebras 的直接競爭對手 — 為甚麼要投資對手?有兩種可能:一是 AMD 想對沖自己的風險(如果晶圓級技術真的是未來,AMD 至少能分一杯羹);二是 AMD 想近距離觀察 Cerebras 的技術發展。無論哪種原因,當你的競爭對手願意掏錢投資你,本身就是對你技術的一種背書。

§8 產品演進:三代晶圓級引擎的跨越

Cerebras 的產品迭代速度,展示了公司的工程執行力。

WSE-1(2019 年 8 月):第一代晶圓級引擎。1.2 萬億個晶體管、400,000 個 AI 核心、18 GB 片上 SRAM。這是人類歷史上第一次成功實現晶圓級整合。

WSE-2(2021 年 4 月):搭載於 CS-2 伺服器中,晶體管數量翻倍至 2.6 萬億、核心數量翻倍至 850,000 個。這一代產品開始被美國能源部和國防部大規模採用,並於 2022 年被電腦歷史博物館(Computer History Museum)永久收藏。

WSE-3(2024 年 3 月):最新一代,搭載於 CS-3 伺服器中。採用台積電 5nm 製程,4 萬億個晶體管、900,000 個核心、44 GB SRAM,峰值算力達 125 PetaFLOPS。性能較 WSE-2 提升一倍。這是目前 OpenAI 和 AWS 合約中部署的產品。

值得注意的是,WSE-3 仍然使用台積電 5nm 製程,而英偉達的 B200 已經用上了更先進的 4nm。台積電正在積極把 5nm 產能轉向 3nm 以支援英偉達的需求,這意味着 Cerebras 在下一代產品中需要升級到更先進的製程節點 — 否則可能面臨產能被擠壓的風險。

從訓練到推理:2024 的戰略大轉向

產品代際之外,Cerebras 在 2024 年做了一個更重要的戰略選擇 — 從以訓練為主,轉向以推理為主。2024 年 8 月推出的 Cerebras Inference 服務,第一次把 WSE-3 包裝成按 token 計費的 API,直接對標 Groq、Together AI、Fireworks 這些推理服務商。原因很實際:訓練市場由超大型模型廠主導、客戶極少而且都被 NVIDIA 鎖定;推理市場則隨着 ChatGPT 類產品的普及而爆炸式增長,多家研究機構估計 2025 年全球 AI 推理市場規模已達 $1,000 億以上,到 2030 年可望突破 $2,500 億(資料來源:MarketsandMarkets、Grand View Research 等,各機構口徑不同)。這才是真正的「肥肉」。

Cerebras Inference 的賣點是速度。在 Llama 3.3 70B 上,Cerebras 公佈生成速度 2,200 token/s — 是 Groq 的近兩倍、Together AI 的接近 5 倍、OpenAI GPT-4o API 的約 10 倍。對於語音 AI、即時編程助手、互動式 Agent 這類延遲敏感的應用,這是質變不是量變 — 從「等幾秒鐘」到「即時回應」,整個用戶體驗都被改寫。

但這個轉向也有代價。推理服務的毛利率通常低於賣硬件 — 你不只是賣晶片,還要負擔機房、電費、運維、軟件開發整個棧。OpenAI $200 億的合約被描述為「multi-year compute services agreement」,意味着 Cerebras 賭的不是「賣硬件給 OpenAI 自己跑」,而是「OpenAI 把工作負載交給我跑」 — 這兩種模式的利潤率差別可以是 20 個百分點以上。如果押對了,這是十年一遇的機會;押錯了,OpenAI 的訂單會變成 Cerebras 自己最大的成本中心。

§9 五大風險:為甚麼聰明錢也可能會猶豫

即使 20 倍超額認購,Cerebras 的招股書中也坦誠列出了大量風險因素。以下是投資者最應該關注的五個:

風險一:客戶集中度極端。2025 年,86% 的收入來自兩間阿聯酋關聯公司。雖然 OpenAI 和 AWS 的合約將在 2026 年開始貢獻收入,但目前的客戶基礎極其脆弱。如果 G42 因為任何原因減少採購(地緣政治、預算削減、技術轉向),Cerebras 的營業額會斷崖式下跌。

而且這不只是「丟訂單」的風險,更是地緣政治的火藥桶。G42 雖然剝離了中國投資、把 Cerebras 持股改為無投票權,但 CFIUS 並沒有對未來再發生變化的情況作任何承諾。如果美國對中東 AI 技術出口的紅線進一步收緊(例如把 Cerebras 列入需要單獨牌照的清單)、或者 G42 與美國以外的買家有任何技術轉移嫌疑,整個訂單流可以一夜之間被凍結。BIS(美國商務部工業與安全局)在 2024 年公布的 AI 擴散規則中,已經把阿聯酋列為「Tier 2」國家 — 進口尖端 AI 晶片需要每年配額審批。Cerebras 在招股書中也明確警示:未來如果美國政府進一步收緊對「Tier 2」國家的出口管制,公司向 G42 交付產品的能力會受到「重大不利影響」。換句話說,Cerebras 86% 的營業額,現在綁在一條每年都要重新申請的繩子上 — 而這條繩子的另一端,不在公司手裏,而在華盛頓。

風險二:100% 依賴台積電。Cerebras 的整個生產鏈條依賴台積電的一條 5nm 產線。它沒有後備代工廠,因為全球只有台積電能夠製造晶圓級晶片。任何台灣海峽的地緣緊張、自然災害、或者台積電產能分配的變動,都可能直接影響 Cerebras 的供應。更關鍵的是,晶圓級晶片的良率天然低於傳統小晶片,擴大產能的難度和成本都遠超傳統晶片。

風險三:核心業務仍在虧損。如前所述,2025 年的帳面「盈利」是會計調整的結果。實際營運虧損 $7,570 萬,而且在擴張階段(建設數據中心以交付 OpenAI 合約),虧損可能進一步擴大。投資者買的不是現在的盈利能力,而是未來三年 OpenAI 合約兌現的預期。

風險四:英偉達的生態護城河。英偉達的 CUDA 平台經過二十年發展,擁有龐大的開發者社區、數十萬個優化過的 AI 模型、以及幾乎所有主流 AI 框架的原生支持。Cerebras 要說服開發者轉換平台,需要的不只是性能優勢 — 還需要完整的軟件工具鏈、技術文件、社區支持。歷史上,性能更強但生態更弱的平台(如 Intel 的 Xeon Phi),最終都輸給了英偉達。

風險五:合約不等於收入。OpenAI 的 $200 億合約是一份「框架協議」(Master Reservation Agreement),而非已確認的採購訂單。合約有性能和交付里程碑 — 如果 Cerebras 無法按時交付,或者 OpenAI 的業務方向發生變化(例如自研晶片取得突破),這筆收入可能不會完全兌現。同樣,AWS 的合作也還在初期階段,2026 年下半年才開始提供服務。

§10 估值思考:$350 億到底貴不貴?

回答這個問題,取決於你看的是哪個時間框架。

看現在:以 2025 年 $5.1 億營業額計算,$350 億基本市值對應約 69 倍市銷率。作為對比,英偉達在 2023 年 AI 熱潮最瘋狂的時候,市銷率也不過 40 倍左右(目前約 24 倍)。從這個角度看,Cerebras 的估值非常進取。

看未來:如果 OpenAI 合約按計劃執行,Cerebras 在 2027 年的營業額可能達到 $50-70 億。以 $350 億市值除以 $60 億的預期營業額,市銷率降至約 5.8 倍 — 對一間高增長 AI 晶片公司來說,這反而是便宜的。

對標表:Cerebras 在 AI 基建版圖中的位置

單獨看 69 倍市銷率沒有意義,要放進同業座標系才能看清楚。以下是 2026 年 5 月主要 AI 基建公司的估值對比(資料截至 2026.05.11):

公司 市值 最新財年營業額 P/S 毛利率
英偉達(NVIDIA) $5.2 萬億 $2,159 億 ~24× 75%
AMD $7,430 億 $346 億 ~21× 50%
博通(Broadcom) $2.0 萬億 $639 億 ~31× 68%
Marvell $1,500 億 $82 億 ~18× 47%
Cerebras(IPO 估值) $350 億 $5.1 億 ~69× ~41%
Groq(收購前私募估值)* $69 億 ~$0.9 億(估) ~77× N/A

注:毛利率均為各公司最新完整財年的 GAAP 數據;博通為半導體業務分部毛利率(整體含軟件業務約 77%,與晶片同業不具可比性)。*Groq 已於 2025 年 12 月被英偉達以約 $200 億收購資產及技術授權,此處為收購前 Series F 私募估值。(資料截至 2026.05.11)

可以看到,Cerebras 69 倍的市銷率是上市同業中最高的 — 即使對比 Groq 最新私募的約 77 倍估值,Cerebras 也在同一量級。但要注意:這個對比不完全公平。英偉達和博通都是成熟的盈利機器、毛利率超過 60%;Cerebras 是高增速(按年 76%)、未盈利的「期權型」資產,估值天然應該帶溢價,但 69 倍仍處於上端。一個更現實的看法是:市場是用 P/S 給 Cerebras 估值,但本質上是在用 DCF 給 OpenAI 合約定價 — 那 $200 億如果三年內順利兌現,現在的估值會看起來便宜;如果只兌現一半,估值就會打三折。

問題在於那個「如果」。OpenAI 合約的執行有多大確定性?Cerebras 能否按時建好數據中心?台積電能否分配足夠的晶圓產能?英偉達會不會用更低的價格搶走客戶?這些問題的答案,將決定 $350 億是便宜還是泡沫。

對投資者來說,Cerebras 的 IPO 本質上是一場「買入期權」。你付出的是 69 倍市銷率的溢價,買入的是 OpenAI 合約兌現後可能帶來的巨大回報。但如果合約執行不如預期,這個溢價可能會迅速蒸發。

§11 投資者必讀:你應該參與這場 IPO 嗎?

讓我們把情緒放到一邊,用三個框架來思考。

看好的理由:Cerebras 擁有全球獨一無二的技術(晶圓級引擎);拿下了 AI 行業最重要的客戶(OpenAI)和最大的雲端商(AWS);官方聲稱推理速度比英偉達快 21 倍(若數據屬實),這個性能差距不是靠軟件優化能追回的;AI 推理市場正在高速增長,而 Cerebras 的架構天然適合推理場景。

看淡的理由:69 倍市銷率為任何執行偏差留下的空間極小;86% 收入依賴兩間阿聯酋公司;核心業務仍在虧損;英偉達不會坐以待斃 — 它的 Blackwell Ultra 和下一代 Rubin 架構正在路上;CFIUS 風險並未完全消除。

適合甚麼類型的投資者?如果你是能承受高波動、投資年期在 3-5 年以上、並且願意為顛覆性技術支付溢價的投資者,Cerebras 值得放進觀察名單。但即使看好,IPO 首日追高通常不是好策略 — 歷史上大部分熱門科技 IPO 在上市後 3-6 個月內會有回調,提供更好的入場時機。如果你是風險承受力較低、偏好穩定收入和已驗證盈利能力的投資者,這不是適合你的股票。

Cerebras 是 AI 晶片戰爭中最大膽的挑戰者。它的技術是真的、合約是真的、客戶是真的。但在一個估值 $350 億、營運仍在虧損的公司身上下注,你需要非常清楚自己在賭甚麼 — 以及願意承受多大的風險。

資料截至 2026 年 5 月 11 日。本文不構成投資建議。投資涉及風險,過往表現並非未來業績保證。