
@源深路炒家:FT報導,Anthropic已經和SpaceX達成合作,將租用後者Colossus 1資料中心超過300MW算力資源,用於運行Claude模型。這個資料中心部署了數十萬顆輝達GPU,本來主要是給xAI和Grok使用。
這裡面其實有幾個很重要的資訊。
第一,AI行業現在已經不是「缺模型」,而是「缺算力」。
Anthropic今年已經先後和:
亞馬遜
谷歌
微軟
輝達
現在又加上SpaceX
簽了大量算力協議。
甚至包括:
與Amazon簽5GW級別合作
與Google/Broadcom類似規模合作
微軟Azure提供300億美元級別算力支援
本質上,現在最核心競爭力已經變成:
「誰能持續拿到足夠多GPU和電力」。
第二,馬斯克其實也在逐漸接受:
「賣算力比自己訓練模型更掙錢」。
文章裡很關鍵的一句是:
Grok使用量明顯落後Claude和ChatGPT,所以SpaceX開始把「多餘算力」租給競爭對手。
這其實很像雲端運算早期邏輯。
亞馬遜最開始也是自己內部IT能力太強,最後發現:
「把基礎設施租出去」反而成為AWS。
現在AI行業也在出現類似趨勢:
未來真正賺錢的,未必只有模型公司,還可能包括:
GPU資源提供方
資料中心
電力
光通訊
網路基礎設施
第三,現在AI產業已經越來越像「超級資本密集型行業」。
以前網際網路創業:
幾十個人、幾台伺服器就能做產品。
現在頂級AI公司:
幾百MW
數十萬GPU
數百億美元CapEx
已經開始接近傳統能源、鐵路、電信商行業。
文章裡甚至提到:
SpaceX未來還計畫建設「軌道AI算力」,也就是把資料中心放到太空。
聽起來很科幻,但背後核心問題其實很現實:
地球上的電力、土地、散熱,已經越來越難滿足AI擴張速度。
第四,這也說明市場之前低估了Claude的真實需求。
最近很多人都在吐槽Claude限流嚴重、體驗下降,但本質上不是產品沒人用,而是需求增長太快,算力不夠。
FT評論區甚至有人說:
以前一次能上傳5個檔案,現在只能上傳1個。
這其實反而側面說明:
高品質模型的需求量正在爆炸式增長。
所以現在整個AI產業越來越像:
「誰能拿到更多GPU、電力和資料中心,誰才能繼續擴張。」

微信扫一扫打赏
支付宝扫一扫打赏 
評論 (0)