HotView 熱視 AI行業現在已經不是「缺模型」,而是「缺算力」

AI行業現在已經不是「缺模型」,而是「缺算力」

4.webp

@源深路炒家:FT報導,Anthropic已經和SpaceX達成合作,將租用後者Colossus 1資料中心超過300MW算力資源,用於運行Claude模型。這個資料中心部署了數十萬顆輝達GPU,本來主要是給xAI和Grok使用。

這裡面其實有幾個很重要的資訊。

第一,AI行業現在已經不是「缺模型」,而是「缺算力」。

Anthropic今年已經先後和:

亞馬遜
谷歌
微軟
輝達
現在又加上SpaceX

簽了大量算力協議。

甚至包括:

與Amazon簽5GW級別合作
與Google/Broadcom類似規模合作
微軟Azure提供300億美元級別算力支援

本質上,現在最核心競爭力已經變成:
「誰能持續拿到足夠多GPU和電力」。

第二,馬斯克其實也在逐漸接受:
「賣算力比自己訓練模型更掙錢」。

文章裡很關鍵的一句是:

Grok使用量明顯落後Claude和ChatGPT,所以SpaceX開始把「多餘算力」租給競爭對手。

這其實很像雲端運算早期邏輯。

亞馬遜最開始也是自己內部IT能力太強,最後發現:
「把基礎設施租出去」反而成為AWS。

現在AI行業也在出現類似趨勢:

未來真正賺錢的,未必只有模型公司,還可能包括:

GPU資源提供方
資料中心
電力
光通訊
網路基礎設施

第三,現在AI產業已經越來越像「超級資本密集型行業」。

以前網際網路創業:
幾十個人、幾台伺服器就能做產品。

現在頂級AI公司:

幾百MW
數十萬GPU
數百億美元CapEx
已經開始接近傳統能源、鐵路、電信商行業。

文章裡甚至提到:

SpaceX未來還計畫建設「軌道AI算力」,也就是把資料中心放到太空。

聽起來很科幻,但背後核心問題其實很現實:

地球上的電力、土地、散熱,已經越來越難滿足AI擴張速度。

第四,這也說明市場之前低估了Claude的真實需求。

最近很多人都在吐槽Claude限流嚴重、體驗下降,但本質上不是產品沒人用,而是需求增長太快,算力不夠。

FT評論區甚至有人說:
以前一次能上傳5個檔案,現在只能上傳1個。

這其實反而側面說明:
高品質模型的需求量正在爆炸式增長。

所以現在整個AI產業越來越像:
「誰能拿到更多GPU、電力和資料中心,誰才能繼續擴張。」

評論 (0)

暫無評論,快來搶沙發吧
微信
微信扫一扫关注我们

微信扫一扫关注我们