九游體育(集團(tuán))官方網(wǎng)站

国产美女主播精品一区,免费观看三级电影,精品在线无裤遮挡照片

又大又粗又爽少妇黄毛,精品一区二区三区四区乱码,福利站导航视频在线观看,无码AV中文一区二区三区,a一特级欧美毛片香蕉,成年这是色视频免费,51社区永久免费视频在线观看 ,91免费在线视频,国产精品国产三级欧美二区,亚洲华人海量资源Av

語言選擇: 簡(jiǎn)體中文 簡(jiǎn)體中文 您好!歡迎訪問九游體育集團(tuán)
為全球客戶提供綠色、節(jié)能的鋁材解決方案專注于高端門窗系統(tǒng)和全鋁應(yīng)用服務(wù)
全國咨詢熱線:0757-26368996
熱門關(guān)鍵詞: 2024鋁合金硬度
您的位置: 首頁 > 最新資訊 > 媒體報(bào)道

全國咨詢熱線

0757-26368996

中信建投:算力投資方興未艾投資的天花板可以很高持續(xù)推薦AI算力板塊

作者:小編 日期:2025-09-14 04:38:00 點(diǎn)擊次數(shù):

信息摘要:

中信建投:算力投資方興未艾投資的天花板可以很高持續(xù)推薦AI算力板塊

  

中信建投:算力投資方興未艾投資的天花板可以很高持續(xù)推薦AI算力板塊(圖1)

  當(dāng)下AI大模型的用戶滲透率仍較低,大模型發(fā)展仍處于中初級(jí)階段,產(chǎn)業(yè)化周期才開始,大模型帶來的算力投資方興未艾,資本開支會(huì)隨著大模型收入的增長(zhǎng)而增長(zhǎng),投資的天花板可以很高。我們持續(xù)推薦AI算力板塊,包括國內(nèi)算力產(chǎn)業(yè)鏈與北美算力產(chǎn)業(yè)鏈。

  中信建投證券通信、電子、人工智能、計(jì)算機(jī)研究團(tuán)隊(duì)推出【算力芯片產(chǎn)業(yè)鏈投資機(jī)遇】:

  人工智能2025中期投資策略報(bào)告:推理走向舞臺(tái)中央,自主可控大勢(shì)所趨,Agent及多模態(tài)加速

  博通公布截至2025年8月3日的2025財(cái)年第三財(cái)季業(yè)績(jī),營收、利潤(rùn)及業(yè)務(wù)指引全面超越市場(chǎng)預(yù)期。第三財(cái)季,博通實(shí)現(xiàn)營業(yè)收入159.5億美元,同比增長(zhǎng)22%,高于分析師預(yù)期的158.4億美元,亦超出公司此前指引的158億美元,創(chuàng)下公司歷史上同期最高營收紀(jì)錄,非GAAP口徑下調(diào)整后凈利潤(rùn)達(dá)84.04億美元,同比增長(zhǎng)37.3%;調(diào)整后EBITDA為107.02億美元,同比增長(zhǎng)30.1%,超出市場(chǎng)預(yù)期的約105億美元,利潤(rùn)率升至67.1%,前一季度利潤(rùn)率66.7%。同時(shí),公司對(duì)第四財(cái)季給出強(qiáng)勁指引,預(yù)計(jì)營收約為174億美元,同比增長(zhǎng)23.8%,超過市場(chǎng)預(yù)期的170.5億美元;EBITDA利潤(rùn)率預(yù)計(jì)維持在67%左右,高于分析師預(yù)期的66%。

  博通CEO陳福陽表示,公司第三財(cái)季AI半導(dǎo)體收入同比增長(zhǎng)63%至52億美元,高于分析師預(yù)期的51.1億美元,且增速較上一季度的46%進(jìn)一步提升。展望第四財(cái)季,博通預(yù)計(jì)AI芯片業(yè)務(wù)收入將大幅增長(zhǎng)至62億美元,實(shí)現(xiàn)連續(xù)11個(gè)季度增長(zhǎng),相當(dāng)于環(huán)比增幅達(dá)19%。該指引較市場(chǎng)預(yù)期高出逾6%。陳福陽表示,公司正與多家潛在客戶合作開發(fā)定制AI加速器,正式進(jìn)軍由英偉達(dá)主導(dǎo)的AI訓(xùn)練芯片市場(chǎng)。上個(gè)季度,其中一家潛在客戶已向博通下達(dá)生產(chǎn)訂單。雖未具名,但該“神秘客戶”已確認(rèn)為博通XPU平臺(tái)的合格客戶,并帶來高達(dá)100億美元的訂單,成為繼現(xiàn)有三大客戶后的第四大定制AI客戶。

  我們認(rèn)為,當(dāng)下AI大模型的用戶滲透率仍較低,大模型發(fā)展仍處于中初級(jí)階段,產(chǎn)業(yè)化周期才開始,大模型帶來的算力投資方興未艾,資本開支會(huì)隨著大模型收入的增長(zhǎng)而增長(zhǎng),投資的天花板可以很高。我們持續(xù)推薦AI算力板塊,包括國內(nèi)算力產(chǎn)業(yè)鏈與北美算力產(chǎn)業(yè)鏈。

  證券研究報(bào)告名稱:《博通業(yè)績(jī)?cè)俅悟?yàn)證算力板塊高景氣度,持續(xù)推薦算力產(chǎn)業(yè)鏈》

  阿里發(fā)布2025Q2業(yè)績(jī),2025Q2阿里云業(yè)務(wù)營收333.98億元,同比增長(zhǎng)26%,AI相關(guān)收入繼續(xù)保持三位數(shù)增長(zhǎng),外部商業(yè)化收入中AI貢獻(xiàn)已超過20%,AI需求快速擴(kuò)大,同時(shí)帶動(dòng)計(jì)算、存儲(chǔ)及其它公有云服務(wù)需求上升。2025年第二季度,阿里巴巴的資本開支為386億元,同比增長(zhǎng)220%,環(huán)比上季增長(zhǎng)57.1%,創(chuàng)下單季歷史新高。在財(cái)報(bào)電話會(huì)上,阿里巴巴CEO吳泳銘披露,過去四個(gè)季度,阿里已經(jīng)在AI基礎(chǔ)設(shè)施及AI產(chǎn)品研發(fā)上累計(jì)投入超1000億元。公司重申,將在未來三年持續(xù)投入3800億元用于AI資本開支,雖單季投資額會(huì)因供應(yīng)鏈因素有所波動(dòng),但整體節(jié)奏不變。阿里透露,公司已為全球AI芯片供應(yīng)及政策變化準(zhǔn)備“后備方案”,通過與不同合作伙伴合作,建立多元化的供應(yīng)鏈儲(chǔ)備,從而確保投資計(jì)劃能夠如期推進(jìn)。目前阿里已實(shí)現(xiàn)AI投入增加帶來AI收入增加的正循環(huán),建議關(guān)注阿里產(chǎn)業(yè)鏈,包括GPU、IDC、光模塊、交換機(jī)等。

  英偉達(dá)發(fā)布最新財(cái)季業(yè)績(jī),需求持續(xù)強(qiáng)勁,H20影響了公司收入。截至自然年2025年7月27日的FY26Q2,英偉達(dá)實(shí)現(xiàn)營收467.43億美元,同比增長(zhǎng)56%,其中數(shù)據(jù)中心營收411億美元(H20銷售收入減少40億美元),同比增長(zhǎng)56%,Blackwell平臺(tái)環(huán)比增長(zhǎng)17%,并且公司在第二季度開始了GB300的生產(chǎn)出貨。基于Blackwell架構(gòu),每token可實(shí)現(xiàn)10倍投資回報(bào),相比Hopper在每token能效方面提升了50倍。FY26Q2,公司非GAAP口徑下調(diào)整后的每股收益(EPS)為1.05美元,同比增長(zhǎng)54%;公司FY26Q3營收指引中值為540億美元(±2%)。英偉達(dá)表示,預(yù)計(jì)今年CSP等資本開支約6000億美元,指引2030年全球AI基礎(chǔ)設(shè)施支出將達(dá)到3萬億-4萬億美元。英偉達(dá)表示,今年中國市場(chǎng)預(yù)計(jì)規(guī)模約500億美元,預(yù)計(jì)每年有望實(shí)現(xiàn)50%左右的增長(zhǎng)。7月下旬,美國政府開始審查向中國客戶銷售H20的許可證,如地緣政治問題得到解決,公司有望在第三季度實(shí)現(xiàn)20億至50億美元的H20收入,此外將Blackwell帶到中國市場(chǎng)的機(jī)會(huì)是真實(shí)存在的。

  國務(wù)院日前印發(fā)《關(guān)于深入實(shí)施“人工智能+”行動(dòng)的意見》。《意見》總體要求,到2027年,率先實(shí)現(xiàn)人工智能與6大重點(diǎn)領(lǐng)域廣泛深度融合,新一代智能終端、智能體等應(yīng)用普及率超70%,智能經(jīng)濟(jì)核心產(chǎn)業(yè)規(guī)模快速增長(zhǎng),人工智能在公共治理中的作用明顯增強(qiáng),人工智能開放合作體系不斷完善。到2030年,我國人工智能全面賦能高質(zhì)量發(fā)展,新一代智能終端、智能體等應(yīng)用普及率超90%,智能經(jīng)濟(jì)成為我國經(jīng)濟(jì)發(fā)展的重要增長(zhǎng)極,推動(dòng)技術(shù)普惠和成果共享。到2035年,我國全面步入智能經(jīng)濟(jì)和智能社會(huì)發(fā)展新階段,為基本實(shí)現(xiàn)社會(huì)主義現(xiàn)代化提供有力支撐。

  從阿里巴巴以及英偉達(dá)的最新財(cái)報(bào)來看,國內(nèi)外CSP廠商對(duì)于算力的投資仍然保持強(qiáng)勁的增長(zhǎng);阿里AI相關(guān)收入繼續(xù)保持三位數(shù)增長(zhǎng),讓人看到AI商業(yè)化落地的清晰路徑,打消了投資者對(duì)AI投資回報(bào)的擔(dān)憂。我們持續(xù)推薦算力板塊,包括海外算力鏈和國產(chǎn)算力鏈。

  證券研究報(bào)告名稱:《行業(yè)綜述:盈利能力提升,算力板塊亮眼,機(jī)構(gòu)持倉占比創(chuàng)新高》

  國產(chǎn)算力板塊迎來密集催化,騰訊業(yè)績(jī)會(huì)表示推理芯片的供應(yīng)渠道側(cè)具備多種選擇,國際供應(yīng)鏈波動(dòng)背景下國產(chǎn)推理算力芯片有望提供助力。DeepSeek更新模型,明確支持FP8精度與將發(fā)布的下一代國產(chǎn)芯片,頭部國產(chǎn)開源模型對(duì)國產(chǎn)芯片的支持有望推動(dòng)國產(chǎn)算力生態(tài)加速落地。華為昇騰芯片近期陸續(xù)參與到政府、金融、運(yùn)營商等行業(yè)客戶招投標(biāo)產(chǎn)品中,印證國產(chǎn)芯片競(jìng)爭(zhēng)力持續(xù)提升。

  8月13日,騰訊業(yè)績(jī)會(huì)表示公司推理芯片供應(yīng)渠道側(cè)具備多種選擇。8月21日,DeepSeek更新模型版本至DeepSeek-V3.1,預(yù)計(jì)將支持FP8精度以及國產(chǎn)芯片。

  騰訊業(yè)績(jī)會(huì)表示未來推理芯片供給有望多元化,利好國產(chǎn)算力芯片廠商。8月13日,騰訊控股發(fā)布2025Q2業(yè)績(jī)并舉辦說明會(huì),會(huì)上騰訊總裁劉熾平表示當(dāng)前公司AI芯片儲(chǔ)備足以支持現(xiàn)有模型的訓(xùn)練及迭代升級(jí);元寶、AI搜索等多個(gè)應(yīng)用場(chǎng)景的用戶數(shù)提升帶來推理負(fù)載占比提升,公司一方面通過模型輕量化和軟件優(yōu)化來控制推理成本,另一方面公司在推理芯片的供應(yīng)渠道側(cè)也具備多種選擇。當(dāng)前海外高端芯片貿(mào)易政策仍存較大不確定性,騰訊有望依托華為、寒武紀(jì)、海光等國產(chǎn)廠商的推理芯片滿足相關(guān)算力需求。

  DeepSeek V3.1發(fā)布,預(yù)計(jì)支持FP8精度以及國產(chǎn)芯片。據(jù)官方公眾號(hào),DeepSeek今日正式發(fā)布DeepSeek-V3.1。目前官網(wǎng)與網(wǎng)頁端模型已升級(jí)至最新版本,且新模型已在Huggingface開源。新版本模型主要升級(jí)體現(xiàn)在以下維度:(1)一個(gè)模型同時(shí)支持思考模式與非思考模式;(2)相比前代模型,新模型思考模式下能在更短時(shí)間內(nèi)給出答案;(3)通過Post-Training優(yōu)化,新模型具備更強(qiáng)的Agent能力。除去功能升級(jí),新版本模型使用了UE8M0 FP8 Scale參數(shù)精度,該參數(shù)代表模型支持轉(zhuǎn)為矩陣乘法等AI核心運(yùn)算優(yōu)化設(shè)計(jì)的FP8精度格式。相比FP16格式,F(xiàn)P8在同等芯片面積下能夠?qū)崿F(xiàn)翻倍性能,且功耗和帶寬需求更低。此外,DeepSeek表示新精度格式針對(duì)即將發(fā)布的下一代國產(chǎn)芯片設(shè)計(jì),表明未來基于DeepSeek模型的訓(xùn)練與推理有望更多應(yīng)用國產(chǎn)AI芯片,助力國產(chǎn)算力生態(tài)加速建設(shè)。

  華為昇騰芯片加速突圍,國產(chǎn)芯片市場(chǎng)競(jìng)爭(zhēng)力逐步提升。近期,基于華為昇騰芯片的服務(wù)器產(chǎn)品陸續(xù)在政府、金融、運(yùn)營商等行業(yè)落地大單。上海浦發(fā)銀行大模型算力擴(kuò)容項(xiàng)目招標(biāo)中,包含176臺(tái)鯤鵬+昇騰配置的智算服務(wù)器;新疆疆算萬卡樞紐型智算中心項(xiàng)目招標(biāo)中,包含4500臺(tái)昇騰910C-2服務(wù)器集群;中國移動(dòng)2025-2026推理AI計(jì)算設(shè)備招標(biāo)中,包含5000套CANN生態(tài)設(shè)備,即基于昇騰異構(gòu)計(jì)算架構(gòu)和昇騰芯片的服務(wù)器產(chǎn)品。由于海外供應(yīng)鏈風(fēng)險(xiǎn)持續(xù),國產(chǎn)芯片廠商產(chǎn)品性價(jià)比持續(xù)提升,更多算力需求有望由國產(chǎn)芯片支持,國產(chǎn)芯片市場(chǎng)競(jìng)爭(zhēng)力持續(xù)提升。

  投資建議:國產(chǎn)算力板塊迎來密集催化,騰訊業(yè)績(jī)會(huì)表示推理芯片的供應(yīng)渠道側(cè)具備多種選擇,國際供應(yīng)鏈波動(dòng)背景下國產(chǎn)推理算力芯片有望提供助力。DeepSeek更新模型,明確支持FP8精度與將發(fā)布的下一代國產(chǎn)芯片,頭部國產(chǎn)開源模型對(duì)國產(chǎn)芯片的支持有望推動(dòng)國產(chǎn)算力生態(tài)加速落地。華為昇騰芯片近期陸續(xù)參與到政府、金融、運(yùn)營商等行業(yè)客戶招投標(biāo)產(chǎn)品中,印證國產(chǎn)芯片競(jìng)爭(zhēng)力持續(xù)提升。

  證券研究報(bào)告名稱:《DeepSeek-V3.1發(fā)布,建議關(guān)注國產(chǎn)算力板塊》

  8月11日,馬斯克旗下的人工智能公司xAI宣布Grok 4現(xiàn)已向全球所有用戶免費(fèi)開放,用戶每天允許進(jìn)行有限次數(shù)的查詢,超出次數(shù)則需要付費(fèi)訂閱。蘋果公司宣布,即將發(fā)布的iOS 26系統(tǒng)將集成OpenAI的GPT-5模型,為Apple智能帶來顯著的性能提升,當(dāng)Apple智能無法處理特定請(qǐng)求時(shí),將能夠利用GPT-5的能力來提供更準(zhǔn)確和更智能的響應(yīng)。我們認(rèn)為,當(dāng)前AI大模型的用戶滲透率仍較低,大模型發(fā)展仍處于中初級(jí)階段,產(chǎn)業(yè)化應(yīng)用周期才開始,大模型帶來的算力投資方興未艾,資本開支會(huì)隨著大模型收入的增長(zhǎng)而增長(zhǎng),投資的天花板可以很高。當(dāng)前對(duì)于算力基礎(chǔ)設(shè)施產(chǎn)業(yè)鏈,北美鏈和國產(chǎn)鏈都值得關(guān)注。

  隨著各方面應(yīng)用的加速,AI算力消耗開始從訓(xùn)練走向推理,同時(shí)主權(quán)AI加大投入,帶來顯著的算力增量。探究背后增量需求主要來自四方面:

  一是各家互聯(lián)網(wǎng)大廠紛紛加速AI與原有業(yè)務(wù)結(jié)合,如谷歌搜索在今年5月21日正式迎來 AI 模式,并逐步在美國市場(chǎng)推出,考慮到谷歌搜索全球范圍內(nèi)年搜索量為5萬億次+,假設(shè)單次回答平均為2000token,則該功能都將帶來日均27萬億token消耗(超過其Gemini模型目前日均16萬億token消耗),類似案例如抖音搜索、微博AI智搜,搜索功能開始從普通服務(wù)器遷移到AI服務(wù)器并重塑所有搜索體驗(yàn),類似的視頻編輯、剪輯功能也被AI重塑;

  二是Agent和深度思考推理的結(jié)合,通過兩者結(jié)合,Agent執(zhí)行任務(wù)準(zhǔn)確率大幅提高,Agent執(zhí)行一次任務(wù)平均消耗token達(dá)到10萬的量級(jí),大幅超過AI搜索單次問答token消耗,并且能延伸到更多開放式場(chǎng)景,同時(shí)多Agent協(xié)作的群體智能也已開始逐步商用化,過去復(fù)雜、多步驟的任務(wù)可通過Agent實(shí)現(xiàn),Agent的普及將帶來推理算力需求的大幅增長(zhǎng);

  三是多模態(tài),隨著多模態(tài)生成的圖片及視頻質(zhì)量今年均顯著提升,今年AI營銷內(nèi)容占比提升十分明顯,根據(jù)《2025中國廣告主營銷趨勢(shì)調(diào)查報(bào)告》顯示“超過50%的廣告主,已經(jīng)在生成創(chuàng)意內(nèi)容時(shí)使用AIGC,并且AI營銷內(nèi)容占比超過10%”,而一分鐘視頻的生成token消耗基本在10萬token至百萬token量級(jí),目前多模態(tài)模型開始步入快速商業(yè)化階段,如快手可靈四五月連續(xù)兩月付費(fèi)金額超過1億,多模態(tài)的加速滲透帶來明顯的算力需求提升。

  四是主權(quán)AI,科研和軍事領(lǐng)域是關(guān)鍵,隨之?dāng)U展到其他各行業(yè)的效率提升,典型代表為美國重點(diǎn)推進(jìn)其“星際之門”計(jì)劃。與之而來的是各國政府也紛紛開啟主權(quán)AI的投資計(jì)劃,尤其是以歐洲、中東、日本等國為代表,投資體量超過3000億美金。

  算力方面從投資角度來看,一是隨著推理占比的提升,云計(jì)算廠商投入產(chǎn)出比逐漸清晰,并且超賣率有望繼續(xù)提升,從而帶動(dòng)利潤(rùn)率提升;二是圍繞機(jī)柜增量變化及新技術(shù)投資,25年下半年核心是英偉達(dá)NVL72機(jī)柜上量,其中液冷散熱、銅連接、電源變化最大:三是圍繞估值性價(jià)比、景氣度投資,重視PCB、光模塊等供應(yīng)鏈。

  1)散熱方面:散熱方面將是AI算力領(lǐng)域未來幾年核心技術(shù)升級(jí)方向之一,英偉達(dá)單卡功耗從700瓦到1200、1400瓦,未來有望迭代至2000瓦+,并且大機(jī)柜、超節(jié)點(diǎn)的出現(xiàn),熱源的疊加使得散熱難度進(jìn)一步提升,因此散熱成為了接下來持續(xù)迭代升級(jí)的方向。其次,目前供應(yīng)商以臺(tái)系、美系廠為主,如Coolermaster、AVC、BOYD及臺(tái)達(dá)等,中國大陸供應(yīng)商比例較低,隨著液冷散熱從研發(fā)走向大規(guī)模量產(chǎn),中國大陸公司擴(kuò)產(chǎn)能力更具優(yōu)勢(shì),我們認(rèn)為液冷散熱領(lǐng)域一系列部件會(huì)有更多中國大陸供應(yīng)商進(jìn)入到全球供應(yīng)體系。

  2)銅鏈接:銅線在短距數(shù)據(jù)傳輸?shù)某墒於雀咔?48G等新技術(shù)路線逐步面世,今年擴(kuò)產(chǎn)最快的公司將充分享受從Blackwell到Rubin所帶來的高速連接需求增長(zhǎng)。

  3)電源領(lǐng)域:高功率帶動(dòng)單W價(jià)值提升。PSU是服務(wù)器電源進(jìn)行AC-DC轉(zhuǎn)換的核心,隨著單體功率密度的提升,單W價(jià)格也在提升,呈現(xiàn)量?jī)r(jià)齊升局面。新一代GB300等GPU方案中,BBU、CBU逐步成為標(biāo)配,能夠解決負(fù)載波動(dòng)率大的供電穩(wěn)定、電壓穩(wěn)定問題。目前5.5 KW電源已進(jìn)入量產(chǎn)階段,后續(xù)伴隨2026 下半年800 V HVDC 數(shù)據(jù)中心電力基礎(chǔ)設(shè)施及 1 MW IT 機(jī)架逐步落地,電源將持續(xù)升級(jí)。隨著功率密度要求的提升,UPS目前正在由600kW級(jí)向MW級(jí)邁進(jìn),以應(yīng)對(duì)越來越大的功率密度需求,未來AIDC有望全面切換到HVDC為代表的全直流供電方案,電壓等級(jí)也提升至800V。巴拿馬電源等集成化、模塊化產(chǎn)品逐步成為大廠青睞的主流,更先進(jìn)的固態(tài)變壓器(SST)也已開始研發(fā)和測(cè)試。

  4)PCB:亞馬遜、META、谷歌等自研芯片設(shè)計(jì)能力弱于英偉達(dá),因此對(duì)PCB等材料要求更高,價(jià)值量更有彈性。隨著短距離數(shù)據(jù)傳輸要求不斷提高,PCB持續(xù)升級(jí),并帶動(dòng)產(chǎn)業(yè)鏈上游升級(jí),覆銅板從M6/M7升級(jí)到M8/M9。伴隨國內(nèi)PCB公司在全球份額持續(xù)提升,并帶動(dòng)上游產(chǎn)業(yè)鏈國產(chǎn)化,從覆銅板出發(fā),并帶動(dòng)上游高端樹脂、玻纖布、銅箔等國內(nèi)份額進(jìn)一步提升。

  5)光模塊:除了GPU等算力硬件需求強(qiáng)勁,也催生了網(wǎng)絡(luò)端更大帶寬需求。優(yōu)秀的網(wǎng)絡(luò)性能可以提升計(jì)算效率,顯著提升算力水平。相較于傳統(tǒng)的云計(jì)算網(wǎng)絡(luò),AI訓(xùn)練組網(wǎng)由葉脊架構(gòu)向胖樹架構(gòu)轉(zhuǎn)變,交換機(jī)和光模塊數(shù)量大幅提升,且隨著通信數(shù)據(jù)量的增加,對(duì)光模塊的速率要求也更高。800G光模塊2023年開始放量,2024-2026年都保持高速增長(zhǎng);1.6T光模塊2025年開始出貨,2026年有望放量,整個(gè)光模塊產(chǎn)業(yè)鏈迎來量?jī)r(jià)齊升的景氣周期。從競(jìng)爭(zhēng)格局看,國內(nèi)光模塊巨頭經(jīng)歷了一輪又一輪的競(jìng)爭(zhēng),與北美的云廠商深度綁定,占據(jù)了全球光模塊市場(chǎng)的主要份額。從未來技術(shù)趨勢(shì)演進(jìn)看,我們建議關(guān)注硅光與CPO(共封裝光學(xué))。

  6)先進(jìn)封裝、HBM:為了解決先進(jìn)制程成本快速提升和“內(nèi)存墻”等問題,Chiplet設(shè)計(jì)+異構(gòu)先進(jìn)封裝成為性能與成本平衡的最佳方案,臺(tái)積電開發(fā)的CoWoS封裝技術(shù)可以實(shí)現(xiàn)計(jì)算核心與HBM通過2.5D封裝互連,因此英偉達(dá)A100、H100等AI芯片紛紛采用臺(tái)積電CoWos封裝,并分別配備40GB HBM2E、80GB的HBM3內(nèi)存。全球晶圓代工龍頭臺(tái)積電打造全球2.5D/3D先進(jìn)封裝工藝標(biāo)桿,未來幾年封裝市場(chǎng)增長(zhǎng)主要受益于先進(jìn)封裝的擴(kuò)產(chǎn)。先進(jìn)封裝市場(chǎng)的快速增長(zhǎng),有望成為國內(nèi)晶圓代工廠商與封測(cè)廠商的新一輪成長(zhǎng)驅(qū)動(dòng)力。

  7)國內(nèi)算力鏈:一方面來自于美國BIS政策的持續(xù)收緊,中期維度看,國產(chǎn)芯片占比提升是必然趨勢(shì)。考慮到國產(chǎn)芯片逐漸進(jìn)入量產(chǎn)交付階段,預(yù)期市場(chǎng)集中度將看到顯著提升。另一方面隨著國內(nèi)算力消耗快速增長(zhǎng)(典型如字節(jié)跳動(dòng),每三個(gè)月token消耗接近翻一倍,5月底為16.4萬億token),我們預(yù)計(jì)國內(nèi)各家大型云廠商在日均token消耗達(dá)到30萬億token時(shí)會(huì)感受到算力緊張,在達(dá)到60萬億token時(shí)會(huì)開始出現(xiàn)一定算力缺口。我們認(rèn)為國內(nèi)增速斜率更陡峭,國產(chǎn)芯片今年將迎來發(fā)展大年。

  2025年8月8日,GPT-5正式發(fā)布,包含GPT-5、GPT-5-Mini、GPT-5-Nano三個(gè)版本。GPT-5在數(shù)學(xué)、編程、視覺理解和健康領(lǐng)域表現(xiàn)突出,在數(shù)學(xué)AIME 2025(無工具)測(cè)試得分 94.6%、真實(shí)世界編碼SWE-bench Verified得分 74.9%、多模態(tài)理解MMMU 得分 84.2%,健康HealthBench Hard 得分 46.2%,在各方面均位居前列。值得一提的是,GPT-5幻覺顯著降低。在啟用網(wǎng)頁搜索時(shí),GPT-5響應(yīng)的事實(shí)錯(cuò)誤率較GPT-4o降低約45%;深度思考模式下,錯(cuò)誤率較OpenAI o3降低近80%。token定價(jià)方面,GPT-5為每百萬輸入token 1.25美元,每百萬輸出token 10美元,Mini和Nano則為GPT-5的1/5和1/25。隨著近期Grok4、Genie3的陸續(xù)發(fā)布,大模型迭代提速,且準(zhǔn)確率提升、成本降低,預(yù)計(jì)將加速AI應(yīng)用的爆發(fā),商業(yè)化也有望提速,幫助互聯(lián)網(wǎng)大廠形成AI投入到商業(yè)變現(xiàn)的閉環(huán),我們建議持續(xù)關(guān)注算力基礎(chǔ)設(shè)施與AI應(yīng)用等環(huán)節(jié)。

  算力基礎(chǔ)設(shè)施產(chǎn)業(yè)鏈我們認(rèn)為北美鏈和國產(chǎn)連都值得關(guān)注。前期,受到供應(yīng)鏈影響,國內(nèi)AI算力基礎(chǔ)設(shè)施投資節(jié)奏受到一定影響,但我們認(rèn)為國內(nèi)的需求依然旺盛,只是短期節(jié)奏受到一些干擾,但后續(xù)隨著算力缺口的出現(xiàn)及擴(kuò)大,國內(nèi)的部署節(jié)奏有望恢復(fù)、甚至提速,建議擇機(jī)布局IDC、液冷、光模塊、交換機(jī)等板塊。

  證券研究報(bào)告名稱:《GPT-5發(fā)布,繼續(xù)推薦算力,eSIM引發(fā)市場(chǎng)關(guān)注》

  在人工智能行業(yè)不斷取得進(jìn)展,以及相關(guān)產(chǎn)業(yè)鏈上市公司業(yè)績(jī)預(yù)告表現(xiàn)亮眼的共同驅(qū)動(dòng)下,通信指數(shù)上漲7.56%,在申萬31個(gè)一級(jí)行業(yè)中排名第1。扎克伯格在表示,Meta將投資數(shù)千億美元建設(shè)幾座大型數(shù)據(jù)中心,用于支持其人工智能的發(fā)展,目標(biāo)是實(shí)現(xiàn)通用人工智能,其中首個(gè)數(shù)據(jù)中心預(yù)計(jì)將于明年投入使用。7月18日,OpenAI宣布將在ChatGPT中推出一款通用型AI智能體,該公司表示該智能體可以幫助用戶完成各種基于計(jì)算機(jī)的任務(wù)。此外,根據(jù)英偉達(dá)官網(wǎng)消息顯示,英偉達(dá)將恢復(fù)向中國銷售H20,并宣布推出一款全新、完全合規(guī)的面向中國的GPU,美國政府已明確表示將批準(zhǔn)相關(guān)許可,預(yù)計(jì)不久后即可啟動(dòng)交付。

  算力鏈公司發(fā)布業(yè)績(jī)預(yù)告,實(shí)現(xiàn)快速增長(zhǎng),持續(xù)驗(yàn)證AI帶動(dòng)的算力行業(yè)景氣度依然較高。當(dāng)前位置,我們認(rèn)為AI大模型的競(jìng)爭(zhēng)與迭代仍在持續(xù),意味著算力投資大概率依然維持較高強(qiáng)度,因此繼續(xù)推薦算力板塊:一是業(yè)績(jī)持續(xù)高增長(zhǎng)且估值仍處于歷史較低水平的北美算力鏈核心標(biāo)的;二是有望享受外溢需求、取得客戶或份額突破的公司;三是上游緊缺的環(huán)節(jié);四是隨著GB300的批量出貨,建議重點(diǎn)關(guān)注 1.6T光模塊及CPO產(chǎn)業(yè)鏈;五是隨著H20供應(yīng)恢復(fù)、NV將向中國推出全新GPU等,建議關(guān)注國產(chǎn)算力鏈。

  我們認(rèn)為隨著大模型的不斷迭代,產(chǎn)業(yè)將向通用人工智能方向發(fā)展,AI應(yīng)用仍值得期待,疊加宇樹IPO,建議關(guān)注AI端側(cè)的芯片、模組等產(chǎn)業(yè)鏈。此外,我們?nèi)岳^續(xù)推薦電信運(yùn)營商、軍工通信等板塊。

  7月10日,xAI正式發(fā)布Grok 4,在GBQA(博士級(jí)問題集)、AMC 25(美國數(shù)學(xué)邀請(qǐng)賽)、Live Coding Benchmark(編程能力測(cè)試)、HMMT(哈佛-MIT數(shù)學(xué)競(jìng)賽)、USAMO(美國數(shù)學(xué)奧林匹克)等測(cè)試中均表現(xiàn)出色。馬斯克表示,“現(xiàn)在在學(xué)術(shù)問題上,Grok 4比博士水平在每個(gè)學(xué)科都要強(qiáng),沒有例外。”定價(jià)方面,Grok 4基礎(chǔ)版本為30美金一個(gè)月;Grok 4Heavy為300美金/月。后續(xù)產(chǎn)品路線月將發(fā)布專門編程模型;9月發(fā)布多模態(tài)智能體;10月發(fā)布視頻生成模型。

  Grok4 在性能上的強(qiáng)勢(shì)提升與模型版本的快速迭代,這背后離不開強(qiáng)大的算力支撐,xAI在美國田納西州孟菲斯建立了超級(jí)計(jì)算中心“Colossus”,2024年7月啟動(dòng)時(shí)配備了10萬塊英偉達(dá)H100 GPU,到2025年2月,GPU數(shù)量已翻倍至20萬塊。Grok4用于RL的計(jì)算資源幾乎與預(yù)訓(xùn)練時(shí)使用的相同。

  當(dāng)前位置,我們認(rèn)為AI大模型的競(jìng)爭(zhēng)與迭代仍在持續(xù),意味著算力投資大概率依然維持較高強(qiáng)度,因此繼續(xù)推薦算力板塊:一是業(yè)績(jī)持續(xù)高增長(zhǎng)且估值仍處于歷史較低水平的北美算力鏈核心標(biāo)的;二是有望享受外溢需求、取得客戶或份額突破的公司;三是上游緊缺的環(huán)節(jié);四是隨著GB300的批量出貨,建議重點(diǎn)關(guān)注 1.6T光模塊及 CPO 產(chǎn)業(yè)鏈。

  近期,算力板塊表現(xiàn)出色。雖然經(jīng)歷了年初deepseek出圈,以及關(guān)稅政策調(diào)整帶來的兩波較大的股價(jià)調(diào)整,但是隨著海外CSP廠商capex的樂觀指引,大模型及各種Agent帶來tokens爆發(fā)式增長(zhǎng),OpenAI和Anthropic等公司的ARR大幅提升,市場(chǎng)對(duì)于未來AI算力投資的信心不斷增強(qiáng)。

  小米AI眼鏡發(fā)布,重量40g,續(xù)航達(dá)8.6小時(shí),價(jià)格為國補(bǔ)后1699元起,同時(shí)推出單色/彩色電致變色的選配版本。小米AI眼鏡作為其隨身AI接口,支持口令、多模態(tài)、掃碼支付、語音控制和會(huì)議紀(jì)要等多種功能,是未來重要的端側(cè)AI產(chǎn)品之一。建議繼續(xù)重視智能眼鏡供應(yīng)鏈,包括整機(jī)、代工、軟件與算法環(huán)節(jié)相關(guān)標(biāo)的。

  工信部披露運(yùn)營商今年1-5月電信業(yè)務(wù)收入,同比增長(zhǎng)1.4%,1-3月同比增速為0.7%,1-4月同比增速為1%,意味著4月和5月電信業(yè)務(wù)收入增速持續(xù)提升,分別達(dá)到2.0%和2.7%。我們持續(xù)推薦運(yùn)營商。

  英偉達(dá)召開2025年度股東大會(huì),機(jī)器人融合人工智能打造新萬億級(jí)市場(chǎng)空間。英偉達(dá)于美國當(dāng)?shù)貢r(shí)間6月25日召開股東大會(huì),CEO黃仁勛宣布將機(jī)器人列為僅次于AI計(jì)算的公司第二大增長(zhǎng)引擎,目標(biāo)通過融合AI與機(jī)器人技術(shù)開辟“物理世界AI”新萬億級(jí)市場(chǎng)。為實(shí)現(xiàn)這一愿景,英偉達(dá)構(gòu)建了全棧式技術(shù)壁壘:硬件層推出新一代機(jī)器人芯片 Thor SoC,兼容工業(yè)機(jī)械臂與自動(dòng)駕駛車輛;軟件層依托 Isaac Robotics平臺(tái)整合GR00T人形機(jī)器人基礎(chǔ)模型,支持多模態(tài)感知與物理仿真。無論自動(dòng)駕駛還是更廣闊的機(jī)器人應(yīng)用,其訓(xùn)練軟件都將依托于英偉達(dá)強(qiáng)大的數(shù)據(jù)中心芯片,端側(cè)應(yīng)用設(shè)備則采用其他專業(yè)芯片支持運(yùn)行。展望未來,英偉達(dá)將由芯片供應(yīng)商向“AI基礎(chǔ)設(shè)施”平臺(tái)商轉(zhuǎn)型,搭建AI工廠進(jìn)而成為AI產(chǎn)業(yè)的核心基礎(chǔ)架構(gòu)。當(dāng)前機(jī)器人和汽車業(yè)務(wù)占英偉達(dá)整體收入比例約1%,但人工智能結(jié)合機(jī)器人、自動(dòng)駕駛將發(fā)展成為萬億美元級(jí)別的增量市場(chǎng)空間。

  全球Token消耗量呈現(xiàn)爆發(fā)式增長(zhǎng),免費(fèi)AI服務(wù)的規(guī)模化普及成為核心引擎。谷歌將AI能力融合到搜索場(chǎng)景中,AI Overviews功能推動(dòng)其2025年4月推理Token消耗量飆升至480萬億/月,較2024年同期的9.7萬億激增50倍。這一增長(zhǎng)直接受益于其覆蓋45億用戶的免費(fèi)服務(wù)生態(tài);中國市場(chǎng)的C端應(yīng)用同樣爆發(fā),字節(jié)跳動(dòng)豆包大模型日均Token調(diào)用量從2024年12月的4萬億躍升至2025年5月的16.4萬億,其中超60%消耗量來自抖音、今日頭條的AIGC營銷內(nèi)容生成。與此同時(shí),企業(yè)級(jí)Agent任務(wù)復(fù)雜度升級(jí)大幅推高單次消耗量:企業(yè)端單Agent解決供應(yīng)鏈、財(cái)務(wù)等場(chǎng)景對(duì)于tokens消耗量達(dá)到十萬數(shù)量級(jí),針對(duì)復(fù)雜場(chǎng)景或多Agent協(xié)同則可能突破百萬級(jí)別,較傳統(tǒng)問答tokens消耗增長(zhǎng)約2個(gè)數(shù)量級(jí)。當(dāng)前海內(nèi)外頭部廠商持續(xù)發(fā)力算力基礎(chǔ)設(shè)施建設(shè),以滿足激增的推理算力需求。

  ASIC市場(chǎng)空間預(yù)期持續(xù)上調(diào),助力各大云廠商自研AI芯片以滿足激增算力需求。全球ASIC市場(chǎng)空間預(yù)期持續(xù)上調(diào),核心驅(qū)動(dòng)力源于云計(jì)算巨頭為滿足激增的AI算力需求而加速自研芯片部署。Marvell 在投資者交流會(huì)中提及其為微軟Azure定制的ASIC芯片單token成本較GPU方案顯著降低,同時(shí)解決了英偉達(dá)芯片供給缺口。Marvell為AWS、微軟、谷歌、Meta等提供底層算力支持,得益于上述云廠商強(qiáng)勁的算力需求,Marvell預(yù)計(jì)2028年數(shù)據(jù)中心資本開支將超過一萬億美元,同時(shí)進(jìn)一步上調(diào)數(shù)據(jù)中心市場(chǎng)規(guī)模2028年預(yù)期至940億美元,較2024年4月的預(yù)期750億美元上調(diào)26%,其中上調(diào)定制計(jì)算芯片(XPU和XPU配套芯片)市場(chǎng)規(guī)模指引37%。Marvell的競(jìng)爭(zhēng)對(duì)手博通同樣發(fā)力ASIC市場(chǎng),博通CEO在業(yè)績(jī)說明會(huì)上表示,2025財(cái)年第二季度博通人工智能收入超44億美元,預(yù)計(jì)人工智能半導(dǎo)體收入將在第三季度增長(zhǎng)至51億美元,實(shí)現(xiàn)連續(xù)十個(gè)季度的增長(zhǎng),明年XPU部署將顯著增加,超出公司此前預(yù)期。

  6月20日,在2025華為開發(fā)者大會(huì)(HDC 2025)上,華為云正式發(fā)布盤古大模型5.5及新一代昇騰AI云服務(wù),實(shí)現(xiàn)AI基礎(chǔ)設(shè)施與大模型技術(shù)的協(xié)同突破。本次升級(jí)覆蓋自然語言處理(NLP)、多模態(tài)、預(yù)測(cè)、科學(xué)計(jì)算及計(jì)算機(jī)視覺(CV)五大領(lǐng)域,通過架構(gòu)創(chuàng)新顯著提升性能與能效,并深化工業(yè)、氣象、能源等場(chǎng)景應(yīng)用,加速產(chǎn)業(yè)智能化轉(zhuǎn)型。

  面對(duì)大模型訓(xùn)練與推理引發(fā)的算力需求指數(shù)級(jí)增長(zhǎng),傳統(tǒng)計(jì)算架構(gòu)已觸及性能瓶頸。華為云此次發(fā)布的昇騰AI云服務(wù),通過CloudMatrix384超節(jié)點(diǎn)架構(gòu)實(shí)現(xiàn)基礎(chǔ)層突破:該架構(gòu)創(chuàng)新性地將384顆昇騰NPU與192顆鯤鵬CPU經(jīng)由全對(duì)等互聯(lián)的MatrixLink高速網(wǎng)絡(luò)整合為高密度異構(gòu)計(jì)算單元,形成具備超域并行能力的AI算力基座。關(guān)鍵性能指標(biāo)實(shí)現(xiàn)代際跨越——單卡推理吞吐量提升至2300 Token/s,較傳統(tǒng)架構(gòu)相比提升近4倍,徹底釋放大模型推理效能。

  在架構(gòu)設(shè)計(jì)上,超節(jié)點(diǎn)針對(duì)混合專家模型(MoE) 的稀疏計(jì)算特性進(jìn)行深度優(yōu)化:1)首創(chuàng) “一卡一專家”并行范式 ,單節(jié)點(diǎn)即可承載384個(gè)專家模塊的協(xié)同推理,顯著降低通信開銷;2)支持“算子級(jí)任務(wù)編排”,通過動(dòng)態(tài)資源切片實(shí)現(xiàn)“一卡多任務(wù)”并發(fā)處理,使算力有效利用率(MFU)提升超50%,從根本上解決傳統(tǒng)架構(gòu)的算力閑置問題。

  對(duì)于十萬億參數(shù)級(jí)別的訓(xùn)練場(chǎng)景,系統(tǒng)支持級(jí)聯(lián)彈性擴(kuò)展——通過432個(gè)超節(jié)點(diǎn)構(gòu)建16萬卡級(jí)算力集群,并創(chuàng)新性地實(shí)現(xiàn)訓(xùn)推一體化調(diào)度:采用 “日推夜訓(xùn)”動(dòng)態(tài)資源池 策略,依據(jù)負(fù)載峰谷智能調(diào)配算力,在保障日間高并發(fā)推理需求的同時(shí),利用閑置資源進(jìn)行夜間模型訓(xùn)練。

  此次,盤古 5.5 在 NLP 領(lǐng)域主要有三大模型組成,即盤古 Ultra MoE、盤古 Pro MoE、盤古 Embedding;以及快慢思考合一的高效推理策略、智能體產(chǎn)品DeepDiver。

  Ultra MoE(7180億參數(shù)) 作為準(zhǔn)萬億級(jí)深度思考模型,基于昇騰全棧軟硬件協(xié)同優(yōu)化,首創(chuàng) Depth-Scaled Sandwich-Norm(DSSN)穩(wěn)定架構(gòu) 與 TinyInit小初始化技術(shù) ,在CloudMatrix384集群上完成10+T token數(shù)據(jù)的穩(wěn)定訓(xùn)練。其創(chuàng)新性 EP Group Loss負(fù)載均衡機(jī)制,保障256個(gè)專家模塊高效協(xié)同,結(jié)合 “MLA多層級(jí)注意力”“MTP混合精度訓(xùn)練”策略,在知識(shí)推理、數(shù)學(xué)計(jì)算等任務(wù)中達(dá)到國際前沿水平。

  Pro MoE(72B A16B) 專為昇騰硬件定制,通過分組混合專家算法(MoGE) 解決跨芯片負(fù)載不均衡問題。該模型針對(duì)300I Duo推理芯片優(yōu)化架構(gòu)拓?fù)洌看蝺H激活160億參數(shù)(16B),在800I A2芯片實(shí)現(xiàn) 1529 Token/s 的極致吞吐效率,較同規(guī)模模型提升15%以上。SuperCLUE榜單驗(yàn)證其智能體任務(wù)能力比肩6710億參數(shù)模型,成為商業(yè)落地最優(yōu)解。

  Embedding(7B) 輕量化模型突破規(guī)模限制,采用“漸進(jìn)式SFT微調(diào)”與 “多維度強(qiáng)化學(xué)習(xí) ”策略,模型在學(xué)科知識(shí)、編碼、數(shù)學(xué)和對(duì)話能力方面均優(yōu)于同期同規(guī)模模型,為邊緣端部署提供高性價(jià)比解決方案。

  同時(shí),華為提出了自適應(yīng)快慢思考合一的高效推理方案,構(gòu)建難度感知的快慢思考數(shù)據(jù)并提出兩階段漸進(jìn)訓(xùn)練策略,讓盤古模型可以根據(jù)問題難易程度自適應(yīng)地切換快慢思考。通過構(gòu)建包含200萬樣本的難度感知數(shù)據(jù)集形成動(dòng)態(tài)感知機(jī)制,基于問題復(fù)雜度分級(jí)標(biāo)注,訓(xùn)練輕量級(jí)判別模塊實(shí)現(xiàn)毫秒級(jí)難度判定,通過系統(tǒng)級(jí)訓(xùn)練框架實(shí)現(xiàn)模型內(nèi)生決策能力,打破“人工規(guī)則切換”局限。

  華為推出的DeepDiver智能體通過強(qiáng)化學(xué)習(xí)框架重構(gòu)開放域信息獲取路徑,基于7B輕量模型實(shí)現(xiàn)千億級(jí)復(fù)雜任務(wù)處理能力。該產(chǎn)品構(gòu)建百萬級(jí)合成交互數(shù)據(jù)集模擬真實(shí)搜索環(huán)境,采用漸進(jìn)式獎(jiǎng)勵(lì)策略優(yōu)化多跳推理能力,深度融合知識(shí)邊界判定與結(jié)構(gòu)化驗(yàn)證機(jī)制,突破傳統(tǒng)引擎的關(guān)鍵信息遺漏瓶頸;技術(shù)實(shí)現(xiàn)上通過延時(shí)敏感型調(diào)度器協(xié)調(diào)128節(jié)點(diǎn)昇騰集群,結(jié)合主機(jī)-設(shè)備自適應(yīng)權(quán)重遷移技術(shù)消除數(shù)據(jù)傳輸延遲,使單次任務(wù)可完成10跳深度推理鏈挖掘。目前已在投研智庫、專利預(yù)警、醫(yī)療證據(jù)鏈分析等場(chǎng)景驗(yàn)證其顛覆性價(jià)值,推動(dòng)AI智能體從工具執(zhí)行向戰(zhàn)略決策角色演進(jìn)。

  除了幾個(gè)NPL大模型,華為盤古5.5還覆蓋了幾個(gè)垂直領(lǐng)域模型實(shí)現(xiàn)產(chǎn)業(yè)深度賦能:

  盤古預(yù)測(cè)模型采用業(yè)界首創(chuàng)的triplet transformer統(tǒng)一預(yù)訓(xùn)練架構(gòu),將不同行業(yè)的數(shù)據(jù),包括工藝參數(shù)的表格數(shù)據(jù),設(shè)備運(yùn)行日志的時(shí)間序列數(shù)據(jù),產(chǎn)品檢測(cè)的圖片數(shù)據(jù)進(jìn)行統(tǒng)一的三元組編碼,并在同一框架內(nèi)高效處理和預(yù)訓(xùn)練,極大地提升預(yù)測(cè)大模型的精度,并大幅提升跨行業(yè)、跨場(chǎng)景的泛化性。助力寶武鋼鐵高爐出鐵溫度合格率突破90%,云南鋁業(yè)電解鋁工藝年省電2600萬度。

  CV視覺模型以300億MoE架構(gòu)構(gòu)建跨模態(tài)工業(yè)樣本庫,全面支持圖像、紅外、激光點(diǎn)云、光譜、雷達(dá)等多維度、泛視覺的感知、分析與決策。另外,盤古CV大模型通過跨維度生成模型,構(gòu)建油氣、交通、煤礦等工業(yè)場(chǎng)景稀缺的泛視覺故障樣本庫,極大地提升了業(yè)務(wù)場(chǎng)景的可識(shí)別種類與精度。推動(dòng)中石油亞毫米級(jí)缺陷識(shí)別效率提升40%。

  科學(xué)計(jì)算模型在氣象領(lǐng)域支撐深圳“智霽”實(shí)現(xiàn)區(qū)域集合預(yù)報(bào),重慶“天資·12h”模型提升強(qiáng)降水預(yù)警精度,深圳能源風(fēng)光發(fā)電預(yù)測(cè)優(yōu)化清潔能源消納效率。

  盤古大模型持續(xù)深耕行業(yè),已在30多個(gè)行業(yè)、500多個(gè)場(chǎng)景中落地,在政務(wù)、金融、制造、醫(yī)療、煤礦、鋼鐵、鐵路、自動(dòng)駕駛、氣象等領(lǐng)域發(fā)揮巨大價(jià)值,實(shí)現(xiàn)產(chǎn)業(yè)智能化轉(zhuǎn)型。

  證券研究報(bào)告名稱:《華為盤古大模型5.5全面升級(jí),AI算力與模型能力再突破》

  Deepseek發(fā)布深度推理能力模型。R1-Zero采用純粹的強(qiáng)化學(xué)習(xí)訓(xùn)練,證明了大語言模型僅通過強(qiáng)化學(xué)習(xí)也可以有強(qiáng)大的推理能力,DeepSeek-R1經(jīng)歷微調(diào)和強(qiáng)化學(xué)習(xí)取得了與OpenAI-o1-1217相媲美甚至超越的成績(jī)。DeepSeek R1訓(xùn)練和推理算力需求較低,主要原因是DeepSeek R1實(shí)現(xiàn)算法、框架和硬件的優(yōu)化協(xié)同。過去的預(yù)訓(xùn)練側(cè)的scaling law正逐步邁向更廣闊的空間,在深度推理的階段,模型的未來算力需求依然會(huì)呈現(xiàn)爆發(fā)式上漲,充足的算力需求對(duì)于人工智能模型的性能進(jìn)步依然至關(guān)重要。

  Deepseek發(fā)布深度推理能力模型,性能和成本方面表現(xiàn)出色。Deepseek發(fā)布兩款具備深度推理能力的大模型R1-Zero和DeepSeek-R1。R1-Zero采用純粹的強(qiáng)化學(xué)習(xí)訓(xùn)練,模型效果逼近OpenAI o1模型,證明了大語言模型僅通過RL,無SFT,大模型也可以有強(qiáng)大的推理能力。但是R1-Zero也存在可讀性差和語言混合的問題,在進(jìn)一步的優(yōu)化過程中,DeepSeek-V3-Base經(jīng)歷兩次微調(diào)和兩次強(qiáng)化學(xué)習(xí)得到R1模型,主要包括冷啟動(dòng)階段、面向推理的強(qiáng)化學(xué)習(xí)、拒絕采樣與監(jiān)督微調(diào)、面向全場(chǎng)景的強(qiáng)化學(xué)習(xí)四個(gè)階段,R1在推理任務(wù)上表現(xiàn)出色,特別是在AIME 2024、MATH-500和Codeforces等任務(wù)上,取得了與OpenAI-o1-1217相媲美甚至超越的成績(jī)。

  國產(chǎn)模型邁向深度推理,策略創(chuàng)新百花齊放。在Deepseek R1-Zero模型中,采用的強(qiáng)化學(xué)習(xí)策略是GRPO策略,取消價(jià)值網(wǎng)絡(luò),采用分組相對(duì)獎(jiǎng)勵(lì),專門優(yōu)化數(shù)學(xué)推理任務(wù),減少計(jì)算資源消耗;KIMI 1.5采用Partial rollout的強(qiáng)化學(xué)習(xí)策略,同時(shí)采用模型合并、最短拒絕采樣、DPO 和long2short RL策略實(shí)現(xiàn)短鏈推理;Qwen2.5擴(kuò)大監(jiān)督微調(diào)數(shù)據(jù)范圍以及兩階段強(qiáng)化學(xué)習(xí),增強(qiáng)模型處理能力。

  DeepSeek R1通過較少算力實(shí)現(xiàn)高性能模型表現(xiàn),主要原因是DeepSeek R1實(shí)現(xiàn)算法、框架和硬件的優(yōu)化協(xié)同。DeepSeek R1在諸多維度上進(jìn)行了大量?jī)?yōu)化,算法層面引入專家混合模型、多頭隱式注意力、多token預(yù)測(cè),框架層面實(shí)現(xiàn)FP8混合精度訓(xùn)練,硬件層面采用優(yōu)化的流水線并行策略,同時(shí)高效配置專家分發(fā)與跨節(jié)點(diǎn)通信,實(shí)現(xiàn)最優(yōu)效率配置。當(dāng)前階段大模型行業(yè)正處于從傳統(tǒng)的生成式模型向深度推理模型過渡階段,算力的整體需求也從預(yù)訓(xùn)練階段逐步過渡向后訓(xùn)練和推理側(cè),通過大量協(xié)同優(yōu)化,DeepSeek R1在特定發(fā)展階段通過較少算力實(shí)現(xiàn)高性能模型表現(xiàn),算力行業(yè)的長(zhǎng)期增長(zhǎng)邏輯并未受到挑戰(zhàn)。過去的預(yù)訓(xùn)練側(cè)的scaling law正逐步邁向更廣闊的空間,在深度推理的階段,模型的未來算力需求依然會(huì)呈現(xiàn)爆發(fā)式上漲,充足的算力需求對(duì)于人工智能模型的性能進(jìn)步依然至關(guān)重要。

  證券研究報(bào)告名稱:《華為盤古大模型5.5全面升級(jí),AI算力與模型能力再突破》

  北美四大云廠商一季度資本開支持續(xù)高增,總計(jì)773億美元,同比增長(zhǎng)62%。其中,2025Q1亞馬遜的capex為250億美元,同比增長(zhǎng)68%,微軟的capex為214億美元,同比增長(zhǎng)53%,谷歌的capex為172億美元,同比增長(zhǎng)43%,Meta的capex為137億美元,同比增長(zhǎng)104%。四家云廠商對(duì)于2025年資本開支的指引保持樂觀,谷歌、亞馬遜、微軟表示年初資本開支指引保持不變,Meta將全年資本開支由上季度指引的600億-650億美元上調(diào)至640億-720億美元。市場(chǎng)此前在DeepSeek出圈后認(rèn)為算力可能加速通縮,資本開支可能會(huì)趨緩,但從北美云廠商的最新指引來看,投資依然強(qiáng)勁,反映出北美算力行業(yè)景氣度依舊很高。

  國內(nèi)CSP廠商季度間資本開支略有波動(dòng),但保持較高投資強(qiáng)度。2025Q1,阿里的資本開支為239.93億元(Purchase of property and equipment),同比增長(zhǎng)136%。相較于此前年報(bào)時(shí)的指引,2025Q1資本開支或低于投資者預(yù)期,預(yù)計(jì)與GPU芯片采購發(fā)貨節(jié)奏有關(guān);騰訊的資本開支為275億元,同比增長(zhǎng)91%,占營收比為15%,落在此前“l(fā)ow teens”指引區(qū)間。當(dāng)前仍處于AI基礎(chǔ)設(shè)施的投資期,盡管季度間資本開支或許有波動(dòng),但整體仍保持較高的投資強(qiáng)度,反映出國內(nèi)算力投資需求也保持較高景氣度。

  隨著大模型應(yīng)用的普及和用戶互動(dòng)頻率的增加,LLM的Token使用量正在以驚人的速度增長(zhǎng)。在近期舉行的2025年Google I/O開發(fā)者大會(huì)上,谷歌表示目前系統(tǒng)每月處理的token數(shù)量激增,從去年的9.7萬億增加到現(xiàn)在的480萬億,增長(zhǎng)將近50倍。目前,Gemini的App上每月有4 億多活躍用戶。近期在字節(jié)跳動(dòng)旗下火山引擎舉辦 Force 原動(dòng)力大會(huì)上,公司宣布,截至2025年5月底,豆包大模型日均tokens使用量超過16.4萬億,較去年5月剛發(fā)布時(shí)增長(zhǎng)137倍。Agent在解決復(fù)雜問題的過程中,會(huì)進(jìn)行多輪對(duì)話或內(nèi)部思考,每一輪的對(duì)話中都會(huì)產(chǎn)生大量的token。隨著Agent在各種應(yīng)用場(chǎng)景的快速普及,token數(shù)量還有望快速增長(zhǎng)。

  九游官網(wǎng)app

  但市場(chǎng)對(duì)于當(dāng)下AI發(fā)展的短期情況存在一定的擔(dān)憂。自從2023年OpenAI的ChatGPT引爆了算力需求之后,CSP廠商的capex高速增長(zhǎng)已有3年,但是AI相關(guān)的爆款應(yīng)用遲遲沒有出現(xiàn),在無法商業(yè)閉環(huán)情況下,實(shí)際上也存在資本開支放緩可能。但是從長(zhǎng)期發(fā)展的維度看,AI仍然會(huì)是整個(gè)科技行業(yè)最大的發(fā)展方向之一。總體來看,我們認(rèn)為應(yīng)先抱以樂觀態(tài)度,但緊盯微觀層面的訂單變化,及時(shí)調(diào)整。因此,從投資的角度來看,我們認(rèn)為應(yīng)該重點(diǎn)錨定行業(yè)景氣度變化和估值水平進(jìn)行投資,海外產(chǎn)業(yè)鏈更看重景氣度變化,估值水平在一定條件下可以提供安全邊際,而國內(nèi)算力產(chǎn)業(yè)鏈短期內(nèi)則更需要重視業(yè)績(jī)的兌現(xiàn)情況。

  從2023年OpenAI的ChatGPT橫空出世以來,人工智能帶動(dòng)的需求持續(xù)高速增長(zhǎng)。CSP廠商的capex保持快速增長(zhǎng)勢(shì)頭,GPU、ASIC、HBM、交換機(jī)、光模塊、銅纜等需求旺盛。

  北美四大云廠商一季度資本開支持續(xù)高增,總計(jì)773億美元,同比增長(zhǎng)62%。其中,2025Q1亞馬遜的capex為250億美元,同比增長(zhǎng)68%,微軟的capex為214億美元,同比增長(zhǎng)53%,谷歌的capex為172億美元,同比增長(zhǎng)43%,Meta的capex為137億美元,同比增長(zhǎng)104%。四家云廠商對(duì)于2025年資本開支的指引保持樂觀,谷歌、亞馬遜、微軟表示年初資本開支指引保持不變,Meta將全年資本開支由上季度指引的600億-650億美元上調(diào)至640億-720億美元。高帶寬、高質(zhì)量以及高可靠性的互聯(lián)網(wǎng)絡(luò)能夠確保算力集群處于高效率的運(yùn)行狀態(tài)。人工智能數(shù)據(jù)中心建設(shè)景氣度高,給光模塊產(chǎn)業(yè)鏈帶來廣闊的空間,國內(nèi)主要光模塊公司的業(yè)績(jī)持續(xù)增長(zhǎng)。

  展望明年,預(yù)計(jì)800G光模塊需求仍然強(qiáng)勁,1.6T光模塊有望快速放量。在AI數(shù)據(jù)中心中,越來越多的客戶傾向于選擇更大帶寬的網(wǎng)絡(luò)硬件。帶寬越大,單位bit傳輸?shù)某杀靖汀⒐母图俺叽绺 ?00G光模塊的高增速已經(jīng)能夠反映出AI對(duì)于帶寬迫切的需求,其在2022年底開始小批量,2023年和2024年的出貨量都大幅增長(zhǎng)。而AI對(duì)于帶寬的需求是沒有極限的,得益于網(wǎng)絡(luò)較高的性價(jià)比,1.6T光模塊有望加速應(yīng)用。NVIDIA正在通過ConnectX-8 SuperNIC 升級(jí)網(wǎng)絡(luò)平臺(tái)架構(gòu),ConnectX-8是業(yè)內(nèi)首款集成PCIe 6.0交換機(jī)和高速網(wǎng)絡(luò)的網(wǎng)卡,專為現(xiàn)代 AI 基礎(chǔ)架構(gòu)設(shè)計(jì),可提供更高的吞吐量,同時(shí)簡(jiǎn)化系統(tǒng)設(shè)計(jì),并提高能效和成本效益。

  CPO,Co-packaged Optics,即共封裝光學(xué)技術(shù),是將光芯片/器件與電芯片/器件合封在一起的封裝技術(shù)。CPO的封裝一般指兩方面:一是光引擎(OE)中PIC和EIC的封裝,二是光引擎和ASIC/XPU/GPU的系統(tǒng)級(jí)封裝。共封裝光學(xué)技術(shù)的優(yōu)點(diǎn)包括降低功耗、降低成本和減小尺寸。降低功耗:信號(hào)傳輸?shù)碾娐肪嚯x大大縮短,電信號(hào)損耗降低,簡(jiǎn)化后的SerDes去掉CDR、DFE、FFE和CTLE之后功耗降低,可節(jié)省30%+的功耗;降低成本:封裝工藝成本更低,高集成度的光引擎成本更低,同時(shí)省去部分電學(xué)芯片成本,可降低25%+的成本;減小尺寸:借助硅光技術(shù)和CMOS工藝,共封裝顯著減小光電引擎各自獨(dú)立封裝方式的尺寸,同時(shí)實(shí)現(xiàn)更高密度的I/O集成。

  Scale-up是指通過增加單個(gè)節(jié)點(diǎn)的資源來提升整個(gè)集群的算力。常見的單個(gè)節(jié)點(diǎn)是八卡服務(wù)器,隨著大模型參數(shù)量大幅提升,英偉達(dá)先后推出了GH200 NVL32和GB200 NVL72等機(jī)架類產(chǎn)品,得益于高速的NVLink互連帶寬,整個(gè)機(jī)架可類比為“One Giant GPU”,未來scale-up domain有望提升到千卡及萬卡級(jí)別。2023年,英偉達(dá)宣布生成式AI引擎NVIDIA DGX GH200現(xiàn)已投入量產(chǎn)。GH200通過NVLink 4.0的900GB/s超大網(wǎng)絡(luò)帶寬能力來提升算力,服務(wù)器內(nèi)部可能采用銅線方案,但服務(wù)器之間可能采用光纖連接。相比較傳統(tǒng)的IB/Ethernet的網(wǎng)絡(luò),GH200采用的NVLink-Network網(wǎng)絡(luò)部分的成本占比大幅增長(zhǎng),但是因?yàn)榫W(wǎng)絡(luò)在數(shù)據(jù)中心中的成本占比較低,因此通過提升網(wǎng)絡(luò)性能來提升算力性價(jià)比很高。

  CPO技術(shù)是系統(tǒng)性工程,涉及到材料、器件、EDA、模塊、設(shè)備等,對(duì)設(shè)計(jì)、封裝和測(cè)試的要求非常高,因此目前產(chǎn)業(yè)中的現(xiàn)狀主要是科技巨頭在主導(dǎo),產(chǎn)業(yè)鏈中的供應(yīng)商配合。CPO/OIO中主要組成部分是CPO光引擎,采用的主要是硅光技術(shù),因此兩者的供應(yīng)鏈也高度重合。參與到CPO/OIO研發(fā)的廠商主要是FAU、MPO、CW laser、光引擎、封裝、流片廠、PCB廠商等,我們認(rèn)為在各個(gè)細(xì)分領(lǐng)域具備較強(qiáng)優(yōu)勢(shì)的廠商,同樣在CPO/OIO領(lǐng)域有望延續(xù)該領(lǐng)先優(yōu)勢(shì)。光引擎是核心產(chǎn)品,雖然目前主要是英偉達(dá)和博通等公司在主導(dǎo),但是考慮到光引擎與光模塊的設(shè)計(jì)、制造和測(cè)試環(huán)節(jié)高度相似,我們認(rèn)為光模塊公司仍然具備較大的優(yōu)勢(shì)。FAU、MPO和Fiber Shuffle等光纖連接器產(chǎn)品,在CPO/OIO產(chǎn)品上的價(jià)值量有望顯著提升。CW DFB laser是重要的光源產(chǎn)品,在FR等波分復(fù)用的方案中,邊緣波長(zhǎng)的激光器難度較大,價(jià)值量也較高。

  我們認(rèn)為,算力板塊目前的景氣度依然較高,雖然市場(chǎng)對(duì)未來的預(yù)期存在分歧,但從Token的增長(zhǎng)情況來看,中長(zhǎng)期展望依然樂觀就估值而言,我們認(rèn)為既然市場(chǎng)對(duì)未來有分歧,那就對(duì)未來的盈利預(yù)測(cè)也會(huì)有分歧,所以未來的估值一定程度上就不具有很強(qiáng)的參考意義。對(duì)此,我們認(rèn)為可以參考?xì)v史。復(fù)盤2019-2020年,5G、云計(jì)算疊加疫情帶來的在線經(jīng)濟(jì)需求,也讓光模塊板塊大漲,之后進(jìn)入了約2年半的市場(chǎng)震蕩尋底階段。

  華為發(fā)布CloudMatrix 384超節(jié)點(diǎn),性能表現(xiàn)優(yōu)異,通過集群、網(wǎng)絡(luò)彌補(bǔ)單芯片差距

  2025年4月,華為在云生態(tài)大會(huì)上推出CloudMatrix 384超節(jié)點(diǎn),并宣布已在蕪湖數(shù)據(jù)中心規(guī)模上線。據(jù)介紹,華為昇騰超節(jié)點(diǎn)憑借高速總線互聯(lián)技術(shù)實(shí)現(xiàn)重大突破,把總線從服務(wù)器內(nèi)部,擴(kuò)展到整機(jī)柜、甚至跨機(jī)柜。在超節(jié)點(diǎn)范圍內(nèi),用高速總線互聯(lián)替代傳統(tǒng)以太網(wǎng)。根據(jù)SemiAnalysis的對(duì)比分析,華為昇騰910C的單卡算力約為GB200的0.3X、HBM容量約為GB200的0.7X,但是在組成集群后,CloudMatrix 384算力約為NVL72的1.7X、HBM容量約為NVL72的3.6X。不足之處則是CloudMatrix 384能耗更高,系統(tǒng)總功耗是NVL72的3.9X,每FLOP功耗是NVL72的2.3X。正如任正非近期接受人民日?qǐng)?bào)時(shí)所說,中國芯片產(chǎn)業(yè)可通過“疊加與集群”技術(shù)路徑實(shí)現(xiàn)突圍,在計(jì)算結(jié)果上與全球最先進(jìn)水平相當(dāng)。

  英偉達(dá)NVLink與華為HCCS,兩大廠商均希望打造自己的高速互聯(lián)生態(tài)。自2014年開始,英偉達(dá)在其GPU中引入了NVLink互聯(lián)技術(shù)。NVLink是由英偉達(dá)開發(fā)的一種高帶寬、低延遲的點(diǎn)對(duì)點(diǎn)數(shù)據(jù)傳輸通道。它的主要用途是連接GPU,或者GPU與CPU之間的通信。經(jīng)歷了近十年的迭代,從NVLink1.0到5.0,GPU上的NVLink鏈路數(shù)從4條變?yōu)?8條,隨著serdes速率增長(zhǎng)以及調(diào)制方式從NRZ升級(jí)為PAM4,單通道帶寬從5GB/s升級(jí)至50GB/s,GPU之間通信的雙向帶寬達(dá)到了1800GB/s。華為HCCS對(duì)標(biāo)英偉達(dá)的NVLink,能夠給內(nèi)核、設(shè)備、集群提供系統(tǒng)內(nèi)存的一致訪問,HCCS采用對(duì)等拓?fù)洌瑔捂溌返淖畲髱捠?6GB/s,昇騰910B中的HCCS采用點(diǎn)對(duì)點(diǎn)拓?fù)洌瑔捂溌返淖畲髱捠?6GB/s,聚合帶寬392GB/S。高速的互聯(lián)帶寬對(duì)于模型的分布式訓(xùn)練至關(guān)重要,也成為英偉達(dá)與華為的核心競(jìng)爭(zhēng)力之一。

  英偉達(dá)和華為作為同時(shí)擁有GPU與交換芯片設(shè)計(jì)能力的公司,既懂網(wǎng)絡(luò)也懂計(jì)算,打造一套屬于自己的互聯(lián)生態(tài)順理成章。但對(duì)于其它GPU與網(wǎng)絡(luò)設(shè)備廠商則并非如此,為了與NVlink競(jìng)爭(zhēng),UEC、UALink等組織相繼成立,旨在打造一個(gè)開放的高性能計(jì)算網(wǎng)絡(luò)生態(tài)。對(duì)于阿里、騰訊這樣的互聯(lián)網(wǎng)廠商,他們希望自己定義計(jì)算集群架構(gòu),而不是成套的購買設(shè)備廠商的訓(xùn)練集群,例如騰訊發(fā)布自己的星脈網(wǎng)絡(luò)架構(gòu),阿里也著手自研交換機(jī),因此開放的互聯(lián)生態(tài)同樣需要重視。

  UALink1.0規(guī)范發(fā)布:支持連接1024個(gè)加速器,每通道200GT/s帶寬。UALink(UltraAcceleratorLink)由AMD、AWS、AsteraLabs、思科、谷歌、HPE、英特爾、Meta和微軟9家企業(yè)發(fā)起成立,旨在為AIPod和集群中加速器與交換機(jī)之間的縱向擴(kuò)展通信定義一種高速、低延遲的互聯(lián)規(guī)范,挑戰(zhàn)英偉達(dá)NVLink等互聯(lián)在該場(chǎng)景的領(lǐng)導(dǎo)地位。2025年4月,UALink1.0發(fā)布,支持每通道200GT/s的最大雙向數(shù)據(jù)速率,信號(hào)傳輸速率為212.5GT/s,以適應(yīng)前向糾錯(cuò)和編碼開銷。UALink可配置為x1、x2或x4,四通道鏈路在發(fā)送和接收方向上均可實(shí)現(xiàn)高達(dá)800GT/s的速度。從標(biāo)準(zhǔn)發(fā)布到實(shí)際應(yīng)用,還需要協(xié)調(diào)眾多廠商配合,因此開放的互聯(lián)協(xié)議能夠真正在組網(wǎng)中應(yīng)用預(yù)計(jì)還需要一至兩年。我們認(rèn)為,對(duì)于網(wǎng)絡(luò)與交換環(huán)節(jié)建議重點(diǎn)關(guān)注交換芯片、網(wǎng)卡等公司。

  證券研究報(bào)告名稱:《通信行業(yè)2025年中期投資策略報(bào)告:穩(wěn)居紅利,精選算力,關(guān)注變化》

  GB200服務(wù)器進(jìn)入規(guī)模化量產(chǎn)階段,Blackwell將接替Hopper成為出貨主力。在GTC 2024大會(huì)上,英偉達(dá)正式發(fā)布了新一代Blackwell架構(gòu)AI芯片,并推出了基于該架構(gòu)的新型機(jī)架式AI服務(wù)器參考設(shè)計(jì)GB200。由于散熱挑戰(zhàn)與液冷系統(tǒng)泄漏等問題,GB200系統(tǒng)在2024年量產(chǎn)推進(jìn)并不順利,整體進(jìn)度滯后于預(yù)期。隨著英偉達(dá)與供應(yīng)鏈合作逐步優(yōu)化設(shè)計(jì),并解決關(guān)鍵技術(shù)難題,24年底Blackwell平臺(tái)開始進(jìn)入爬坡階段,開啟對(duì)Hopper平臺(tái)的替代。英偉達(dá)FY26Q1(2025年2月-4月)數(shù)據(jù)中心業(yè)務(wù)中近70%的收入已由Blackwell平臺(tái)貢獻(xiàn)。鴻海、廣達(dá)等核心ODM供應(yīng)商也普遍預(yù)計(jì),GB200將在2025Q2加速放量,微軟、Meta等多家云服務(wù)廠商也陸續(xù)部署新一代系統(tǒng)。

  升級(jí)方案GB300有望于2025年下半年開啟量產(chǎn)。英偉達(dá)在GTC 2025大會(huì)上披露,預(yù)計(jì)GB300將于2025年下半年量產(chǎn)上市。硬件方面,GB300采用12-Hi堆疊的HBM3e內(nèi)存結(jié)構(gòu),每顆GPU配備288 GB顯存,較GB200的192 GB提升50%。系統(tǒng)I/O也全面升級(jí),整機(jī)網(wǎng)絡(luò)帶寬提升至1.6 Tbps,以滿足更高并發(fā)推理的通信需求。在性能表現(xiàn)上,GB300 NVL72在FP4精度下的推理算力相較GB200 NVL72提升約1.5倍。為確保量產(chǎn)進(jìn)度,英偉達(dá)此次在設(shè)計(jì)上回歸穩(wěn)定的Bianca板卡方案,并優(yōu)化了液冷系統(tǒng)與供電模塊。GB300將成為繼GB200之后,又一輪AI服務(wù)器放量的關(guān)鍵驅(qū)動(dòng)。

  自研ASIC芯片不僅能夠降低功耗,還能幫助CSP掌握AI基礎(chǔ)設(shè)施的成本與供應(yīng)鏈,避免過度依賴英偉達(dá),因此自研ASIC正成為CSP的競(jìng)爭(zhēng)關(guān)鍵。谷歌曾獨(dú)占ASIC AI芯片市場(chǎng),目前AWS、Meta、微軟等企業(yè)也開始積極投入ASIC AI芯片開發(fā)。AWS的ASIC AI芯片Trainium 2在2024Q4開始量產(chǎn),搭載該芯片的服務(wù)器則在2025Q1開始規(guī)模化出貨,緯穎作為AWS ASIC服務(wù)器的核心供應(yīng)商,營收大幅受益。AWS下一代Trainium 3晶片則預(yù)計(jì)在2025年底之前量產(chǎn)。

  制程迭代是芯片算力提升的關(guān)鍵因素,AI算力需求的爆發(fā)催生了對(duì)先進(jìn)制程的強(qiáng)需求。AI大模型發(fā)展對(duì)芯片算力提出更高要求,未來更成熟的AGI模型所需算力是現(xiàn)在GPT-4所需算力的1萬倍。而解決高算力需求的一種方案是采用更為先進(jìn)制程的芯片,因?yàn)樾酒瞥淘较冗M(jìn),功耗越低、計(jì)算速度越快。如2nm芯片功耗約為16nm芯片的10%,而性能約為16nm芯片的2倍以上。臺(tái)積電估計(jì)其即將推出的N2P節(jié)點(diǎn)的功耗可能比N3E節(jié)點(diǎn)低30-40%。

  服務(wù)器需求將超過智能手機(jī)成為先進(jìn)制程最主要的驅(qū)動(dòng)力。歷史上,智能手機(jī)的迭代更新推動(dòng)了芯片制程的不斷演進(jìn),但隨著AI應(yīng)用的計(jì)算需求上升,服務(wù)器成為主要的算力中心,且對(duì)高算力的追求使得其對(duì)先進(jìn)制程呈現(xiàn)出越來越高的需求,AI芯片功耗較高,且需要更小的尺寸,因此AI芯片對(duì)先進(jìn)制程的迫切需求將推動(dòng)服務(wù)器需求成為先進(jìn)制程最大的驅(qū)動(dòng)力。Sumco估計(jì),在AI服務(wù)器出貨量強(qiáng)勁增長(zhǎng)的推動(dòng)下,服務(wù)器對(duì)先進(jìn)制程晶圓的需求量最快將在2024年超過智能手機(jī)。

  2025年是2nm量產(chǎn)交付元年,臺(tái)積電已獲得多家客戶訂單。臺(tái)積電、三星、Intel均有望在2025年量產(chǎn)2nm制程,但目前Intel和三星主要用于生產(chǎn)自有產(chǎn)品,并未獲得第三方客戶的量產(chǎn)訂單。Intel的18A將生產(chǎn)Panther Lake (PC CPU)和Clearwater Forest (服務(wù)器CPU),三星的SF2可能將獲得自研處理器Exynos 2600的訂單。臺(tái)積電的2nm已獲得多家客戶訂單,包括AMD的Venice(服務(wù)器CPU),蘋果的A20/A20 Pro和M6系列,高通第三代8 Elite。此外,AWS、谷歌、微軟未來的ASIC AI芯片在2nm節(jié)點(diǎn)上都大概率選擇臺(tái)積電。

  先進(jìn)制程面臨物理約束瓶頸,先進(jìn)封裝成為提高芯片性能的重要解決方案。AI大發(fā)展使得算力需求爆發(fā)式增長(zhǎng),然而,隨著半導(dǎo)體工藝尺寸進(jìn)一步縮小,集成電路制造面臨的挑戰(zhàn)日益增大,摩爾定律日趨放緩,單位晶體管的成本不降反升,應(yīng)用先進(jìn)制程的芯片研發(fā)費(fèi)用也大幅增長(zhǎng)。先進(jìn)封裝通過異構(gòu)集成,將多個(gè)芯粒(Chiplets)高密度連接在一起,整體性能提升不再依賴單一芯片支持,且大幅提升良率,降低成本,成為提供系統(tǒng)級(jí)性能提升的新路徑。

  CoWoS為HPC和AI計(jì)算領(lǐng)域廣泛使用的先進(jìn)封裝技術(shù)。CoWoS是臺(tái)積電推出的 2.5D封裝技術(shù),本質(zhì)上是將多個(gè)芯片(如邏輯芯片+HBM)放置在一塊硅中介層(interposer)上,再封裝在基板上,2012年首先應(yīng)用于Xilinx的FPGA上。此后,英偉達(dá)、AMD、谷歌等廠商的AI芯片均采用了CoWoS,例如A100、H100。如今CoWoS已成為HPC和AI計(jì)算領(lǐng)域廣泛應(yīng)用的2.5D封裝技術(shù),絕大多數(shù)使用HBM的高性能芯片,包括大部分創(chuàng)企的AI訓(xùn)練芯片都應(yīng)用CoWoS技術(shù)。

  AI持續(xù)高景氣帶動(dòng)CoWoS需求不斷提升。2023年一季度以來,AI服務(wù)器的需求不斷增長(zhǎng),使臺(tái)積電CoWoS封裝產(chǎn)能緊缺。臺(tái)積電一方面將制程分段委外,另一方面大幅擴(kuò)產(chǎn)CoWoS產(chǎn)能。

  HBM 3D堆疊提升內(nèi)存性能,AI芯片廣泛采用。隨著數(shù)據(jù)的爆炸式增長(zhǎng),內(nèi)存墻對(duì)于計(jì)算速度的影響愈發(fā)顯現(xiàn)。為了減小內(nèi)存墻的影響,提升內(nèi)存帶寬一直是存儲(chǔ)芯片聚焦的關(guān)鍵問題。如同閃存從2D NAND向3D NAND發(fā)展一樣,DRAM也正在從2D向3D技術(shù)發(fā)展,HBM為主要代表產(chǎn)品。與傳統(tǒng)DRAM不同,HBM是3D結(jié)構(gòu),它使用TSV技術(shù)將數(shù)個(gè)DRAM裸片堆疊起來,形成立方體結(jié)構(gòu),與傳統(tǒng)內(nèi)存相比,HBM的存儲(chǔ)密度更大、帶寬更高,基本成為數(shù)據(jù)中心AI芯片的標(biāo)配。

  預(yù)計(jì)2028年全球先進(jìn)封裝市場(chǎng)規(guī)模增至786億美元,2022-2028年CAGR達(dá)到10.0%。根據(jù)Yole數(shù)據(jù),2022年全球封裝市場(chǎng)中,先進(jìn)封裝占比已達(dá)到47%。預(yù)計(jì)到2028年,先進(jìn)封裝市場(chǎng)占比將增至58%,規(guī)模約為786億美元,2022年-2028年CAGR約為10.0%,明顯高于傳統(tǒng)封裝市場(chǎng)的2.1%和市場(chǎng)整體的6.2%。

  晶圓代工龍頭臺(tái)積電打造先進(jìn)封裝工藝標(biāo)桿,傳統(tǒng)封測(cè)廠商亦紛紛加快轉(zhuǎn)型步伐。臺(tái)積電在先進(jìn)封裝上已取得了可觀的收入體量,技術(shù)布局也進(jìn)入關(guān)鍵節(jié)點(diǎn),未來投入規(guī)模將持續(xù)加碼。在OSAT廠商中,日月光VIPack先進(jìn)封裝平臺(tái)包含六大核心技術(shù),安靠推出FCMCM(倒裝多晶片模組)、2.5D(TSV)等五大先進(jìn)封裝解決方案。國內(nèi)長(zhǎng)電先進(jìn)聚焦bumping,F(xiàn)an-out CSP晶圓級(jí)等先進(jìn)封裝,通富微電在2.5D/3D先進(jìn)封裝保持國內(nèi)領(lǐng)先,深科技專注存儲(chǔ)封測(cè)領(lǐng)域,并聚焦倒裝工藝(Flip-chip)、POPt堆疊封裝技術(shù)的研發(fā)。

  全球HBM(高帶寬存儲(chǔ)器)技術(shù)呈現(xiàn)“海外領(lǐng)跑、國內(nèi)加速追趕”的雙軌格局。海外市場(chǎng)由SK海力士、三星、美光三大巨頭壟斷95%以上份額:SK海力士憑借HBM3/3E量產(chǎn)優(yōu)勢(shì)穩(wěn)居首位(市占率52.5%),其12層堆疊HBM4測(cè)試良率已突破70%,計(jì)劃2025年量產(chǎn);三星正加速優(yōu)化HBM3E良率并推進(jìn)HBM4研發(fā),2024年通過AMD MI300系列驗(yàn)證后逐步放量;美光則聚焦HBM3e量產(chǎn),但產(chǎn)能擴(kuò)張略有滯后。國內(nèi)HBM產(chǎn)業(yè)受地緣政策催化進(jìn)入提速階段。

  從HBM的生產(chǎn)工藝來看,DRAM顆粒為定制的DRAM顆粒,工藝難點(diǎn)在于封測(cè)。TSV、大規(guī)模回流模塑底部填充(MR-MUF)、自對(duì)準(zhǔn)、混合鍵合等工藝很大程度上影響HBM的性能和良率。

  (1)TSV:不采用傳統(tǒng)的布線方法來連接芯片與芯片,而是通過在芯片上鉆孔并填充金屬等導(dǎo)電材料以容納電極來垂直連接芯片。制作帶有TSV的晶圓后,通過封裝在其頂部和底部形成微凸塊(Micro Bumping),然后連接這些凸塊。由于TSV允許凸塊垂直連接,因此可以實(shí)現(xiàn)多芯片堆疊。最初,使用TSV接合的堆棧有4層,后來增加到8層。最近,一項(xiàng)技術(shù)使得堆疊12層成為可能,SK海力士于2023年4月開發(fā)了其12層HBM3。雖然TSV倒裝芯片接合方法通常使用基于熱壓的非導(dǎo)電薄膜(TC-NCF),但SK海力士使用MR-MUF工藝,可以減少堆疊壓力并實(shí)現(xiàn)自對(duì)準(zhǔn)。這些特性使SK海力士能夠開發(fā)出世界上第一個(gè)12層HBM3。

  (2)MR-MUF:將半導(dǎo)體芯片堆疊起來,并將液體保護(hù)材料注入芯片之間的空間,然后硬化以保護(hù)芯片和周圍電路的工藝。與在每個(gè)芯片堆疊后應(yīng)用薄膜型材料相比,MR-MUF是一種更高效的工藝,并提供有效的散熱。目前SK海力士主要使用MR-MUF工藝生產(chǎn)HBM2e/3/3e,使得其領(lǐng)先于三星電子和美光,后者主要采用TC-NCF工藝。MR-MUF工藝需要使用液態(tài)環(huán)氧樹脂(EMC),目前全球僅日本namics獨(dú)供。除EMC外,HBM封裝還需要底部填充膠用于FC工藝,采用PSPI作為硅中介層中RDL的再鈍化層,還需要IC載板、DAF、Solder ball等材料。

  (3)自對(duì)準(zhǔn):在 MR-MUF工藝期間通過大規(guī)模回流將芯片重新定位到正確的位置。在此過程中,熱量被施加到芯片上,導(dǎo)致相關(guān)凸塊在正確的位置熔化并硬化。

  (4)混合鍵合:C2W混合鍵合具有多種優(yōu)勢(shì),①允許無焊料鍵合,減少鍵合層的厚度、縮短電氣路徑并降低電阻。因此,小芯片可以高速運(yùn)行,就像單個(gè)芯片一樣。②通過直接將銅與銅接合,可以顯著減小凸塊上的間距。目前,使用焊料時(shí)很難實(shí)現(xiàn)10 um或更小的凸塊間距。然而,銅對(duì)銅直接鍵合可以將間距減小到小于1um,從而提高芯片設(shè)計(jì)的靈活性。③先進(jìn)的散熱功能。④上述的薄粘合層和細(xì)間距影響了封裝的形狀因數(shù),可以大大減小封裝尺寸。目前混合鍵合主要用于單層鍵合或兩個(gè)芯片面對(duì)面堆疊,SK海力士2022年用混合鍵合完成了8層HBM2e的堆疊,正在開發(fā)用于更高密度、高堆疊HBM的混合鍵合。

  需求緊俏,HBM持續(xù)擠壓DRAM產(chǎn)能。從需求端看,云計(jì)算廠商將更多資本開支投入AI基礎(chǔ)設(shè)施,2024年北美CSP的資本開支增速在55%,主要來自AI推動(dòng),傳統(tǒng)服務(wù)器需求基本持平,25Q1同比增長(zhǎng)64%,預(yù)計(jì)2025年CSP資本開支維持大幅增長(zhǎng)。算力需求的快速增長(zhǎng),算力卡的數(shù)量和配置快速升級(jí),最終帶來的是算力芯片和HBM需求的快速增長(zhǎng)。結(jié)合海外存儲(chǔ)廠商和咨詢機(jī)構(gòu)的預(yù)測(cè), 2024年HBM市場(chǎng)規(guī)模達(dá)到160億美金,同比增長(zhǎng)300%,預(yù)計(jì)2025年達(dá)到320億美金,同比增長(zhǎng)100%。從供給端看,HBM供應(yīng)仍然緊缺,在傳統(tǒng)DRAM庫存波動(dòng)的情況下,HBM由于AI服務(wù)器的強(qiáng)勁需求,擠占DRAM產(chǎn)能的現(xiàn)象還在持續(xù)。

  HBM快速迭代,HBM4即將進(jìn)入量產(chǎn)。結(jié)構(gòu)上,2025年HBM3e將占據(jù)主導(dǎo),根據(jù)SK海力士,2024年其HBM3e收入將占HBM收入一半以上,2025年12層HBM3e供給量將超過8層產(chǎn)品,12層HBM4計(jì)劃于25H2發(fā)貨。(1)HBM3e:三大原廠相繼推出12Hi產(chǎn)品,這些12Hi的HBM預(yù)計(jì)用在英偉達(dá)的B300A(B200A Ultra)和B300上。(2)HBM4:三星、海力士計(jì)劃24Q4開始HBM4的流片,預(yù)計(jì)2026年用在英偉達(dá)下一代的Rubin芯片上。

  1.2.4 模型推理時(shí)代到來,ASIC需求爆發(fā),看好ASIC服務(wù)器PCB廠商

  推理時(shí)代即將到來,推理將成為AI算力需求的新動(dòng)力。英偉達(dá)首席執(zhí)行官黃仁勛在2025年GTC的主題演講中提到,隨著AI行業(yè)在模型訓(xùn)練上的需求放緩,疊加DeepSeek在模型推理上所作的創(chuàng)新,AI推理時(shí)代即將到來。相較于傳統(tǒng)的生成式AI主要以語言大模型與聊天機(jī)器人的形式呈現(xiàn)、聚焦生成文本和圖像內(nèi)容等,AI Agent能理解任務(wù)、進(jìn)行復(fù)雜推理、制定計(jì)劃并自主執(zhí)行多步驟操作,由于AI Agent解決復(fù)雜問題、分解任務(wù)每一步的邏輯思考過程都需要用到模型推理,因此推理將成為AI新階段的核心動(dòng)力。

  低成本是AI推理爆發(fā)的必要條件,北美CSP廠商均加速研發(fā)ASIC的步伐。大模型推理時(shí)代相較于移動(dòng)互聯(lián)網(wǎng)時(shí)代,底層邏輯發(fā)生了巨大變化。推理系統(tǒng)的成本幾乎和客戶使用量成線性關(guān)系,因此邊際成本很高,且成本絕大部分是推理的算力消耗。因此,在大模型時(shí)代,能將推理成本降到極致的廠商有望獲得最終的勝利。目前北美四大CSP廠商,除了繼續(xù)采用英偉達(dá)GPU做模型訓(xùn)練之外,均在加速開發(fā)自家的ASIC產(chǎn)品,一方面因英偉達(dá)的GPU價(jià)格昂貴,硬件投入成本過高,另一方面,自研ASIC可針對(duì)特定需求進(jìn)行優(yōu)化,也能針對(duì)特定的應(yīng)用進(jìn)行設(shè)計(jì),因此對(duì)于能耗或電力管理的控制將更加精準(zhǔn),此外,從供應(yīng)鏈安全角度,也可以避免算力資源都來自英偉達(dá)、AMD等GPU廠商的風(fēng)險(xiǎn)。在同等預(yù)算下,AWS的Trainium 2可以比英偉達(dá)的H100 GPU更快速完成推理任務(wù),且性價(jià)比提高了30%~40%。2025年底計(jì)劃推出的Trainium3,其計(jì)算性能更是提高了2倍,能效有望提高40%。谷歌的TPU v5芯片在Llama-3推理場(chǎng)景中,單位算力成本較H100降低了70%。根據(jù)IDC數(shù)據(jù),微軟Azure自研ASIC后,硬件采購成本占比從75%降至58%,擺脫長(zhǎng)期被動(dòng)的議價(jià)困境。

  在Google Cloud Next 25大會(huì)上,谷歌又推出了第七代張量處理單元(TPU v7)Ironwood,它是谷歌迄今為止性能最高、可擴(kuò)展性最強(qiáng)的定制ASIC芯片,也是首款專為推理而設(shè)計(jì)的加速器。Ironwood的每瓦性能是谷歌去年發(fā)布的第六代TPU Trillium的兩倍,HBM容量及雙向帶寬均大幅提升。谷歌ASIC服務(wù)器計(jì)算板上有四個(gè)Ironwood TPU,這個(gè)與之前TPU v5計(jì)算板架構(gòu)一樣。

  博通和Marvell均看好ASIC市場(chǎng)需求。博通和Marvell是ASIC定制領(lǐng)域的主要玩家,二者在AI定制芯片中占據(jù)了超70%的市場(chǎng)份額。博通定制的ASIC芯片廣泛應(yīng)用于數(shù)據(jù)中心、云計(jì)算、高性能計(jì)算(HPC)、5G無線基礎(chǔ)設(shè)施等領(lǐng)域,根據(jù)博通最新財(cái)報(bào),2025Q1公司AI芯片收入占比50%,同比增長(zhǎng)77%,其中ASIC相關(guān)收入占比60%。博通認(rèn)為XPU的需求會(huì)持續(xù)上漲,公司預(yù)計(jì)2025年下半年ASIC收入占比會(huì)持續(xù)上升,主要是因?yàn)橥评砟P托枨笤鲩L(zhǎng)使得AI芯片業(yè)務(wù)增速加快。Marvell的ASIC業(yè)務(wù)也成為公司強(qiáng)勁增長(zhǎng)的核心動(dòng)力之一。2024年12月初,Marvell與AWS達(dá)成了一項(xiàng)為期五年的戰(zhàn)略合作協(xié)議,包括幫助亞馬遜設(shè)計(jì)自有AI芯片。伴隨AWS芯片的量產(chǎn),Marvell在2025Q1實(shí)現(xiàn)營收18.95億美元,同比增長(zhǎng)63%,創(chuàng)歷史新高。Marvell也預(yù)測(cè),隨著AI計(jì)算需求的增長(zhǎng),公司ASIC占比有望提升至25%,預(yù)計(jì)2028年數(shù)據(jù)中心ASIC市場(chǎng)規(guī)模將提升至429億美元。

  中國ASIC服務(wù)器市場(chǎng)增速超40%。中國ASIC服務(wù)器市場(chǎng)未來在中國市場(chǎng),由于部分高端GPU產(chǎn)品受供應(yīng)的限制,出現(xiàn)了算力缺口,另外中國頭部的互聯(lián)網(wǎng)企業(yè)為了降低成本以及更好地適配自身業(yè)務(wù)場(chǎng)景,也增大了自研ASIC芯片服務(wù)器的部署數(shù)量。IDC預(yù)測(cè),2024年中國加速服務(wù)器市場(chǎng)規(guī)模將達(dá)到190億美元,同比2023年增長(zhǎng)87%。其中GPU服務(wù)器依然是主導(dǎo)地位,占據(jù)74%的市場(chǎng)份額。到2028年,中國加速計(jì)算服務(wù)器市場(chǎng)規(guī)模將超過550億美元,其中ASIC加速服務(wù)器市場(chǎng)占比將接近40%。

  隨云廠商積極自研ASIC芯片,ASIC正成為AI服務(wù)器市場(chǎng)中與GPU并行的重要架構(gòu),進(jìn)一步帶動(dòng)高階PCB的需求。金像電為全球服務(wù)器PCB第一大廠,也是ASIC服務(wù)器放量時(shí)PCB企業(yè)中的最大受益者。金像電的產(chǎn)品已經(jīng)切入北美四大CSP,涵蓋UBB、OAM(加速器模組)所需要的HDI、厚銅板等。根據(jù)金像電25Q1法說會(huì)資料,公司25Q1單季度實(shí)現(xiàn)收入29.52億元,創(chuàng)歷史新高,其中服務(wù)器收入占比持續(xù)提升,到72%。在傳統(tǒng)服務(wù)器市場(chǎng)溫和復(fù)蘇背景下,金像電業(yè)績(jī)高增核心來自于云廠商ASIC服務(wù)器PCB訂單,根據(jù)公司交流,2024年AI產(chǎn)品占比已達(dá)20%,未來將持續(xù)提升。

  根據(jù)Semianalysis數(shù)據(jù),亞馬遜第二代推理芯片Trainium2的計(jì)算托盤中使用了2個(gè)Trainium2的芯片,即用到2個(gè)OAM,下面是一塊UBB板。UBB為采用了M8規(guī)格覆銅板材料的28層高多層板,OAM為M6/M7的三階HDI,往下一代Trainium3迭代的過程中,UBB中層數(shù)、OAM層數(shù)及階數(shù)均會(huì)進(jìn)一步提升。

  展望2025年,除AWS外,谷歌、meta的新產(chǎn)品中,ASIC服務(wù)器UBB層數(shù)均將向30層板以上推進(jìn),制作難度加劇,也將進(jìn)一步推動(dòng)ASP的提升,ASIC服務(wù)器PCB將迎來量?jī)r(jià)齊升階段,同時(shí)也將拉動(dòng)上游高規(guī)格(M8等)覆銅板的需求。

  證券研究報(bào)告名稱:《2025年中期投資策略報(bào)告:端側(cè)AI爆發(fā)可期,國產(chǎn)高端產(chǎn)能亟需突破》

  三大增量助力推理算力需求加速。AI算力消耗開始從訓(xùn)練走向推理,并且?guī)盹@著的算力增量,探究背后增量需求主要來自三方面:一是各家互聯(lián)網(wǎng)大廠紛紛加速AI與原有業(yè)務(wù)結(jié)合,如谷歌搜索在今年5月21日正式迎來 AI 模式,并逐步在美國市場(chǎng)推出,考慮到谷歌搜索全球范圍內(nèi)年搜索量為5萬億次+,假設(shè)單次回答平均為2000 token,則該功能將帶來日均27萬億token消耗(超過其Gemini模型目前日均16萬億token消耗),類似案例如抖音搜索、微博AI智搜,搜索功能開始從普通服務(wù)器遷移到AI服務(wù)器并重塑所有搜索體驗(yàn),類似的視頻編輯、剪輯功能也被AI重塑;二是Agent和深度思考推理的結(jié)合,通過兩者結(jié)合,Agent執(zhí)行任務(wù)準(zhǔn)確率大幅提高,Agent執(zhí)行一次任務(wù)平均消耗token達(dá)到十萬億的量級(jí),大幅超過AI搜索單次問答token消耗,并且能延伸到更多開放式場(chǎng)景,如智譜發(fā)布會(huì)演示的“用你最擅長(zhǎng)的方式去賺100塊錢”,同時(shí)多Agent協(xié)作的群體智能也已開始逐步商用化,過去復(fù)雜、多步驟的任務(wù)可通過Agent實(shí)現(xiàn),Agent的普及將帶來推理算力需求的大幅增長(zhǎng);三是多模態(tài),隨著多模態(tài)生成的圖片及視頻質(zhì)量今年均顯著提升,今年AI營銷內(nèi)容占比提升十分明顯,根據(jù)《2025中國廣告主營銷趨勢(shì)調(diào)查報(bào)告》顯示“超過50%的廣告主,已經(jīng)在生成創(chuàng)意內(nèi)容時(shí)使用AIGC,并且AI營銷內(nèi)容占比超過10%”,而一分鐘視頻的生成token消耗基本在10萬億token量級(jí),目前多模態(tài)模型開始步入快速商業(yè)化階段,如快手可靈4、5月連續(xù)兩月付費(fèi)金額超過1億,多模態(tài)的加速滲透帶來明顯的算力需求提升。

  展望2025年下半年及26年,我們認(rèn)為算力領(lǐng)域投資分為海外景氣度投資以及國內(nèi)自主可控兩大類:

  海外景氣度投資:1)重視推理占比的提升:參照臺(tái)積電Cowos擴(kuò)產(chǎn)節(jié)奏,ASIC芯片在26年的邊際變化最為明顯,同時(shí)英偉達(dá)依然有較高增速;2)圍繞機(jī)柜增量變化及新技術(shù)投資,25年下半年核心是英偉達(dá)NVL72機(jī)柜上量,其中液冷散熱、銅連接、電源變化最大,散熱方面將是AI算力領(lǐng)域未來幾年核心技術(shù)升級(jí)方向之一,目前供應(yīng)商以臺(tái)系廠為主,考慮到中國大陸的公司擴(kuò)產(chǎn)能力更具優(yōu)勢(shì),我們認(rèn)為液冷散熱領(lǐng)域一系列部件會(huì)有更多中國大陸供應(yīng)商進(jìn)入到全球供應(yīng)體系。銅鏈接方面,銅線在短距數(shù)據(jù)傳輸?shù)某墒於雀咔?48G等新技術(shù)路線逐步面世,今年擴(kuò)產(chǎn)最快的公司將充分享受從Blackwell到Rubin所帶來的高速連接需求增長(zhǎng)。電源領(lǐng)域重視氮化鎵等機(jī)會(huì);3)圍繞預(yù)期差及景氣度投資,重視PCB,英偉達(dá)、亞馬遜、META、谷歌等相關(guān)需求景氣度高,并重視上游國產(chǎn)化比例提升,并且部分領(lǐng)域庫存開始下降、價(jià)格具備一定彈性。

  國內(nèi)自主可控:一方面來自于美國BIS政策的持續(xù)收緊,另一方面隨著國內(nèi)算力消耗快速增長(zhǎng)(典型如字節(jié)跳動(dòng),每三個(gè)月token消耗接近翻一倍,5月底為16.4萬億token),我們預(yù)計(jì)國內(nèi)各家大型云廠商在日均token消耗達(dá)到30萬億token時(shí)會(huì)感受到算力緊張,在達(dá)到60萬億token時(shí)會(huì)開始出現(xiàn)一定算力缺口。我們認(rèn)為國內(nèi)增速斜率更陡峭,國產(chǎn)芯片今年將迎來發(fā)展大年。

  自從23年ChatGPT出現(xiàn)以來,基于AI業(yè)務(wù)token消耗的快速提升,海外大廠開啟CAPEX高額投入周期,持續(xù)在模型訓(xùn)練和推理端加大算力投入,模型性能得到快速迭代。與此同時(shí),伴隨24年12月以來DeepSeek V3和R1的逐漸發(fā)布,其首次實(shí)現(xiàn)了國產(chǎn)模型在推理任務(wù)上與 OpenAI-o1的基本相當(dāng),并引發(fā)了訪問流量的快速擴(kuò)大(DeepSeek 應(yīng)用(APP)于 2025年1月11日發(fā)布,1月31日DAU達(dá) 2215 萬,達(dá) ChatGPT 日活用戶的 41.6%,超過豆包的日活用戶 1695 萬),伴隨Deepseek帶來的降本范式(FP8 混合精度訓(xùn)練框架)持續(xù)演化,模型輸入/輸出成本得到快速下降,AI應(yīng)用大范圍推廣成為可能。云計(jì)算產(chǎn)業(yè)作為模型訓(xùn)練/推理需求快速擴(kuò)大下的直接受益方,進(jìn)入了持續(xù)高景氣周期。

  站在當(dāng)前時(shí)點(diǎn),云廠云業(yè)務(wù)營收增速與營業(yè)利潤(rùn)率(或EBITA利潤(rùn)率)是CAPEX投入的前瞻指引。2023年以來,伴隨著Transform架構(gòu)下Scaling law的持續(xù)生效,各家大廠均對(duì)模型訓(xùn)練做出大量投入。考慮到此時(shí)海外廠商并不以投入產(chǎn)出比來做出CAPEX投入的衡量,且模型能力邊界本身尚不清晰,因此25年以前,更多以CAPEX本身作為實(shí)際算力需求的前瞻指引。但25年以來伴隨LLM模型能力邊界逐步逼近上限,模型訓(xùn)練需求相對(duì)有所下滑,推理開始成為核心需求來源,CAPEX投入產(chǎn)出比逐步進(jìn)入可測(cè)算階段。在此基礎(chǔ)上,云業(yè)務(wù)增速與營業(yè)利潤(rùn)率趨勢(shì)成為算力需求的直觀體現(xiàn),也是后續(xù)CAPEX投入力度的核心決定因素。

  以阿里云為例,24Q2是阿里云算力投入決策的核心拐點(diǎn)。2022年以來,由于互聯(lián)網(wǎng)大廠業(yè)務(wù)的快速收縮,阿里云營收增速快速下滑,同時(shí)伴隨著云資源池利用率的降低,營業(yè)利潤(rùn)率隨之下降。23年以來,通過提升公有云業(yè)務(wù)占比以提升利潤(rùn)率與發(fā)展AI以實(shí)現(xiàn)營收提速成為阿里云的核心戰(zhàn)略。伴隨24Q2阿里云營收增速首次由負(fù)轉(zhuǎn)正(AI業(yè)務(wù)貢獻(xiàn)較大增量),GPU實(shí)例業(yè)務(wù)的需求和盈利性的首次得到論證,因此從24Q3開始,阿里云CAPEX投入力度快速加大,并在24Q4的業(yè)績(jī)交流會(huì)上宣布三年3800億資本開支計(jì)劃。

  當(dāng)前國內(nèi)云廠仍處于資本開支投入第一階段,短期投入力度具備保障。參考海外廠商,云業(yè)務(wù)的發(fā)展往往有三個(gè)階段,而目前我國云計(jì)算業(yè)務(wù)還在第一階段。以微軟為例,23Q1開始其率先進(jìn)行大額CAPEX投入,以配合OpenAI模型的快速發(fā)展,受益于更高利潤(rùn)率的AI業(yè)務(wù)快速發(fā)展,23Q1-23Q3公司Azure營業(yè)利潤(rùn)率進(jìn)入快速上行階段;隨后,從23Q4開始高額資本開支開始逐漸對(duì)折舊端產(chǎn)生壓力,相對(duì)應(yīng)的微軟也做了員工數(shù)量削減,希望通過費(fèi)用的控制來維持營業(yè)利潤(rùn)率的持續(xù)上行;后續(xù),伴隨折舊壓力放大,資本開支進(jìn)入平穩(wěn)周期。

  目前阿里云的營收分為對(duì)內(nèi)關(guān)聯(lián)交易和對(duì)外商務(wù),對(duì)內(nèi)AI部分主要支持夸克,釘釘,高德等調(diào)用通義/DeepSeek模型,對(duì)外創(chuàng)收中的AI業(yè)務(wù)主要包含GPU租賃、MaaS服務(wù)、模型服務(wù)(百煉與PAI平臺(tái))三類。由于近年來模型側(cè)價(jià)值量逐漸被云端內(nèi)化(MaaS的價(jià)值量被帶入到了IaaS中),導(dǎo)致GPU租賃成為了公有云業(yè)務(wù)中毛利率更高的部分,大幅資本開支本質(zhì)是為了讓高毛利率GPU租賃業(yè)務(wù)占比快速擴(kuò)大,以此拉動(dòng)AI業(yè)務(wù)規(guī)模快速增長(zhǎng)。在此思路下,從24Q2開始,AI業(yè)務(wù)成為支撐公有云增長(zhǎng)核心動(dòng)力,24Q2一半以上營收增速來自AI貢獻(xiàn),且在后續(xù)持續(xù)保持100%以上同比增長(zhǎng)。

  相比傳統(tǒng)CPU實(shí)例,中期看GPU實(shí)例將具備更高投入產(chǎn)出效率。一方面,傳統(tǒng)公有云商業(yè)模式下,云廠主要提供計(jì)算、網(wǎng)絡(luò)、存儲(chǔ)等同質(zhì)化服務(wù),難以在客戶體驗(yàn)上產(chǎn)生本質(zhì)性不同,更多是依托規(guī)模效應(yīng)。而GPU租賃時(shí)代,客戶需求主要聚焦于模型訓(xùn)練與推理,智算平臺(tái)的運(yùn)維能力和自動(dòng)化、容錯(cuò)率是競(jìng)爭(zhēng)優(yōu)勢(shì)的核心區(qū)分,“有效訓(xùn)練時(shí)長(zhǎng)”是各家智算業(yè)務(wù)中的一項(xiàng)關(guān)鍵性能指標(biāo),如阿里云今年四月就強(qiáng)調(diào),其“萬卡級(jí)超大規(guī)模訓(xùn)練中,一個(gè)月內(nèi)靈駿GPU集群有效訓(xùn)練時(shí)長(zhǎng)占比能超過93%”,相對(duì)而言,大廠云平臺(tái)具有更強(qiáng)穩(wěn)定性;另一方面,在提供GPU實(shí)例租賃的服務(wù)同時(shí),大廠同時(shí)也會(huì)提供模型訓(xùn)練/推理加速服務(wù),通過算力與通信的調(diào)度實(shí)現(xiàn)訓(xùn)練效率數(shù)倍式提升。雙重優(yōu)勢(shì)下,大廠GPU實(shí)例租賃具備一定溢價(jià)能力,相對(duì)傳統(tǒng)CPU實(shí)例更具備投入產(chǎn)出比。

  長(zhǎng)期看,通過超賣率的提升,GPU實(shí)例將持續(xù)保持較高的盈利能力。過去十年以來,公有云價(jià)格進(jìn)行了數(shù)次降低,其降價(jià)能力一方面來源于規(guī)模效應(yīng)對(duì)運(yùn)營成本的分?jǐn)偅ㄒ约瓣P(guān)鍵技術(shù)自有化),但另一方面也來源于CPU超賣能力的不斷增強(qiáng),使單CPU實(shí)例實(shí)際收費(fèi)能力大幅上升,因此得以在不斷降價(jià)的背景下實(shí)現(xiàn)利潤(rùn)率穩(wěn)定;目前阿里云GPU租賃業(yè)務(wù)仍以模型微調(diào)需求為主,而TensorFlow、Pytorch等智能化應(yīng)用框架開發(fā)的應(yīng)用往往會(huì)獨(dú)占一張GPU整卡,無法做超額出售,但伴隨后續(xù)推理需求大幅提升,則GPU虛擬化是必然趨勢(shì)。GPU實(shí)例超賣率的提升將進(jìn)一步拉高GPU租賃業(yè)務(wù)的EBITA利潤(rùn)率,并為后續(xù)降價(jià)獲客提供空間。

  高算力需求推動(dòng)算力中心單機(jī)功率密度提升,液冷散熱走向必選。傳統(tǒng)風(fēng)冷系統(tǒng)通過讓冷源更靠近熱源,或者密封冷通道/熱通道的方案,來適應(yīng)更高的熱密度散熱需求。隨著機(jī)架密度升至20kW以上,多種液冷技術(shù)應(yīng)運(yùn)而生,從而滿足高熱密度機(jī)柜的散熱需求。此外,液冷散熱相較于風(fēng)冷更加綠色低碳,PUE(Power Usage Effectiveness,數(shù)據(jù)中心總能耗/IT設(shè)備實(shí)際能耗)是算力中心最常見的評(píng)價(jià)性能指標(biāo),也是行業(yè)評(píng)價(jià)算力中心綠色性能的主要衡量指標(biāo),PUE值越接近于1,代表算力中心的綠色化程度越高,液冷散熱往往更接近于1。從分類來看,液冷技術(shù)主要分為冷板式、浸沒式和噴淋式液冷技術(shù)等技術(shù)類型,其中冷板式液冷技術(shù)作為成熟度最高、應(yīng)用最廣泛的液冷散熱方案。

  以英偉達(dá)GPU芯片為。

  九游官網(wǎng)app