日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
芯片 正文
發(fā)私信給劉伊倫
發(fā)送

0

狂飆的算力基建,如何實現(xiàn)「價值閉環(huán)」?丨GAIR 2025

本文作者: 劉伊倫   2025-12-23 10:19
導語:實現(xiàn)商業(yè)閉環(huán),提供「方便、易用、便宜」的算力是關鍵。

2025年12月12-13日,第八屆GAIR全球人工智能與機器人大會在深圳·博林天瑞喜來登酒店正式啟幕。

作為AI產(chǎn)學研投界的標桿盛會,GAIR自2016年創(chuàng)辦以來,始終堅守“傳承+創(chuàng)新”內(nèi)核,始終致力于連接技術前沿與產(chǎn)業(yè)實踐。

13日「AI 算力新十年」專場的“如何從‘算力基建’到‘價值閉環(huán)’?”圓桌對話中,數(shù)位業(yè)內(nèi)資深專家展開精彩對談與深度探討,拋出諸多極具啟發(fā)性的觀點:

參與本次圓桌論壇的嘉賓包括:

李東東(主持人):三豐投資創(chuàng)始合伙人

師天麾:清程極智聯(lián)合創(chuàng)始人、產(chǎn)品副總裁

徐永昌:朗特智能AI事業(yè)部(朗擎數(shù)科)CIO

“從幫客戶省錢,到幫客戶賺錢,是算力行業(yè)商業(yè)閉環(huán)的關鍵。我們對商業(yè)閉環(huán)的理解是,國內(nèi)很多算力卡的流通效率是不高的,且機房空置率較高,所以我們投資了北京利舊科技公司,在算力卡回收業(yè)務上發(fā)力,核心是幫客戶極致節(jié)省采購成本、硬件成本,這也是一種節(jié)流的方式?!薄顤|東

“2025年,AI推理市場已步入爆發(fā)前夜。上半年中國MaaS市場規(guī)模已實現(xiàn)4-5倍增長,部分大廠管理層甚至預判明年增速有望達到10倍。文本大模型的效果已許久未出現(xiàn)突破性的震撼進展,但圖片領域幾乎每幾個月就有新的視頻或圖片生成模型引發(fā)社交平臺熱議,技術迭代速度顯著快于文本領域,未來潛力值得關注?!薄獛熖祺?/p>

“AI眼鏡等各類硬件產(chǎn)品若能快速推向市場,并在未來兩三年內(nèi)實現(xiàn)數(shù)億副的普及規(guī)模,將引發(fā)Token消耗的爆發(fā)式增長。屆時每個人日均采集或消耗的Token量,有望從當前的約1萬提升至十萬甚至幾十萬量級。當數(shù)億用戶以日均幾十萬Token的規(guī)模消耗時,整體Token消耗規(guī)?;?qū)崿F(xiàn)百倍乃至更高倍數(shù)的增長?!?/strong>——徐永昌

三位深耕行業(yè)的資深實踐者,共同開啟這場關于算力基建價值重構與未來趨勢的深度對話。他們中,有人立足資本視角洞察產(chǎn)業(yè)脈搏,有人扎根技術前線打磨產(chǎn)品落地,有人坐鎮(zhèn)企業(yè)中樞統(tǒng)籌算力資源,不同維度的經(jīng)驗碰撞,為算力行業(yè)的破局之路提供全新思考。

而這些觀點,恰恰聚焦于算力基建狂飆突進背后的關鍵拷問:價值閉環(huán)該如何構建?被寄予厚望的推理需求,究竟何時能迎來全面爆發(fā),成為破解算力閑置的核心引擎?展望未來,算力產(chǎn)業(yè)還有哪些值得“押注”的核心方向?作者長期關注算力與芯片產(chǎn)業(yè),歡迎添加微信 YONGGANLL6662 交流更多信息。

以下是圓桌對話的精彩內(nèi)容,雷峰網(wǎng)(公眾號:雷峰網(wǎng))作了不改變原意的整理與編輯:

李東東(主持人):各位嘉賓、同仁,下午好!我是本場圓桌主持人李東東。三豐投資深耕股權投資十余年,今年重點布局算力與能源領域,在AI算力領域我們投資了智算通、利舊科技等項目。今天有幸主持論壇,與大家探討大規(guī)模算力基建的價值閉環(huán)實現(xiàn)路徑。

當前算力賽道熱度高漲,但痛點顯著。信通院數(shù)據(jù)顯示,不少智算中心算力平均利用率不足40%,算力消納已成行業(yè)通病。尤其大模型訓練退潮后,增量需求轉(zhuǎn)向推理側(cè),而推理場景分散零碎,如何破解這一困境,是行業(yè)核心議題。

今天我們有幸邀請到清程極智聯(lián)合創(chuàng)始人師天麾、朗擎數(shù)科CIO徐永昌兩位專家分享見解。首先,請兩位嘉賓做自我介紹。

師天麾:大家好,我是清程極智聯(lián)合創(chuàng)始人兼產(chǎn)品副總裁師天麾。公司聚焦AI Infra軟件層,去年推出八卦爐訓練系統(tǒng),今年開源赤兔推理引擎,目前正打造大模型MaaS API一站式評測與調(diào)用平臺AI Ping。

徐永昌:大家好,我是徐永昌。目前聯(lián)合朗特智能控股打造液冷算力產(chǎn)品,深耕分布式架構,熟悉AI全棧技術棧。我已與英特爾、英偉達、華為海思、海光、阿里平頭哥、百度昆侖芯、摩爾線程、沐曦、燧原、壁仞、天數(shù)智芯、靈汐科技、中興通訊、銳捷、星融元等海內(nèi)外芯片、網(wǎng)絡廠商深度溝通,逐步推進浸沒式液冷產(chǎn)品適配。

我們核心解決兩大問題:一是降低成本,公司液冷產(chǎn)品成本可控制在風冷水平;二是降低PUE至1.1。國家發(fā)改委、數(shù)據(jù)局明確要求新建智算中心PUE需低于1.3,而傳統(tǒng)風冷智算中心PUE普遍約1.5,2026年起風冷智算中心將逐步轉(zhuǎn)向液冷方案。

目前英偉達GB200及馬斯克20萬卡集群均采用冷板式液冷,不僅造價高昂,GPU滿載溫度仍達85℃。我們采用浸沒式液冷方案,可將GPU滿載溫度從80-90℃降至50-60℃,顯著降低設備故障率,降低維保成本。

設備故障率降低將大幅提升千卡、萬卡集群的MFU。當前全球萬卡集群平均MFU僅30%,采用我們的液冷方案后,有望將這一數(shù)值提升至50%以上,這是大模型預訓練對算力要求的核心指標,也是我們的核心技術優(yōu)勢。

算力基建如何實現(xiàn)商業(yè)閉環(huán)?

李東東(主持人):今年算力行業(yè)的發(fā)展可以說是走到了新的高峰,當前行業(yè)內(nèi)常說“算力是數(shù)字經(jīng)濟的核心生產(chǎn)力”,結合兩位各自的從業(yè)背景,你們認為目前國內(nèi)算力基建的發(fā)展走到了哪個階段?

師天麾:當前算力建設與以往核心區(qū)別在于,過去重建設、輕消納與使用;如今更強調(diào)性價比,核心是“建即用、用更好”。建設前需明確用戶與場景:是做MaaS模式下的PD分離、批量對外租賃,還是類似超算的Slurm分時復用。不同模式與場景,對硬件選型、組網(wǎng)及軟件平臺的功能、性能要求均不同。行業(yè)已轉(zhuǎn)向?qū)嵱脤?,需從應用場景與客戶需求倒推軟件搭建與算力中心建設,實現(xiàn)從“可用”到“好用、高性價比”的升級。

徐永昌:今年行業(yè)發(fā)展可分為兩個階段。上半年,DeepSeek-R1開源標志著其推理大模型已追平OpenAI-o1。短短一年半實現(xiàn)OpenAI八年的成果,核心并非算力或算法,而是數(shù)據(jù)——DeepSeek團隊以中文為核心Token,構建高質(zhì)量數(shù)據(jù)集開展預訓練與后訓練。中文常用字僅數(shù)千個,遠少于英文百萬級單詞量,但漢字天然具備強關聯(lián)性與可預測性,英文需逐Token預測,中文則可由首字同步預測后續(xù)多字。這一特性為行業(yè)垂類模型帶來機遇:構建足量高質(zhì)量數(shù)據(jù),即可提升模型垂類問題解決效果。

下半年,對話機器人、Agent等垂類模型加速爆發(fā)。以華西第二醫(yī)院(全國婦幼綜合榜首)為例,院長日均接診僅10余人次(每次30-40分鐘)。我們將院長經(jīng)驗轉(zhuǎn)化為高質(zhì)量數(shù)據(jù)集與知識庫,通過后訓練打造AI分身,其在兒科呼吸領域診療水平已達院長90%。患者就診前先經(jīng)AI醫(yī)生多輪預診,歸納常見問題并匯總至院長工作看板,使單次問診時長壓縮至5分鐘,日接診量提升至30人。

客戶無需自建機房,僅需一臺4090或5090服務器搭配我們1立方米的TANK箱,即可獲得本地私有化算力解決方案,實現(xiàn)軟硬件一體化落地。下半年起,客戶付費意愿顯著提升,核心是價值交換的達成:芯片+模型+Agent的組合切實解決實際問題、創(chuàng)造價值。預計明年,這類落地場景將迎來爆發(fā)。

李東東(主持人):徐總的觀點我非常認同,整個AI新基建核心就是算力、算法和數(shù)據(jù)。我們在投具身智能項目時有一個觀點,為什么要做“人形機器人”?核心原因就是人類世界有大量的數(shù)據(jù)可以供機器人學習,這是人型相對其他形態(tài)的數(shù)據(jù)優(yōu)勢,中文世界也給中國反超世界AI,提供了很強的數(shù)據(jù)基礎。

我們今天核心探討“從算力基建到價值閉環(huán)”,能否請兩位分別定義一下:在你們的業(yè)務場景中,“算力價值閉環(huán)”的核心標志是什么?它需要滿足哪些關鍵條件?

師天麾:算力作為基礎設施,核心價值在于用戶能否便捷、低門檻地應用。行業(yè)實現(xiàn)盈利的前提,是落地場景具備實際價值。殺手級應用是價值核心載體,而其涌現(xiàn)需先實現(xiàn)應用“百花齊放”——唯有算力達到易用、低成本的標準,AIGC創(chuàng)作者才能充分發(fā)揮創(chuàng)造力,AI應用開發(fā)者也能結合場景推進落地。綜上,算力價值體現(xiàn)在“方便、易用、便宜”三大核心點。

我特別關注MaaS模式,它已基本解決算力可用性與易用性問題:用戶無需關注算力底座的芯片型號,也無需操心推理引擎的跨型號運行邏輯。芯片廠商可聯(lián)合軟件廠商,通過大規(guī)模EP并行、PD分離等優(yōu)化技術,大幅降低成本、提升性價比,這是關鍵突破口。

徐永昌:價值閉環(huán)的核心是AI方案能在業(yè)務場景落地并實現(xiàn)盈利。以某年營業(yè)額數(shù)億的房地產(chǎn)銷售公司為例,其核心業(yè)務是為樓盤提供工具支持:初期通過MaaS模式接入豆包的多模態(tài)大模型API,將客戶與銷售的溝通語音轉(zhuǎn)化為文字,經(jīng)微調(diào)大模型實時分析客戶成交意向,助力提升成交量,開發(fā)商因此愿意付費。

另有一家AI應用公司,Token消耗量從春節(jié)的10億快速增長至5月的40億,雖豆包MaaS團隊提出可承接超50億Token/日的需求,但該公司出于數(shù)據(jù)與策略的核心價值考量,提出私有化算力存儲需求。最終朗擎為其提供浸沒式一體機本地算力解決方案。

用戶付費意愿本質(zhì)取決于兩點:一是AI能幫其盈利,二是能解決數(shù)據(jù)安全、效率提升及成本降低等核心痛點。唯有切實破解對方問題、助力其實現(xiàn)盈利,才能形成真正的價值閉環(huán)。

李東東(主持人):從幫客戶省錢,到幫客戶賺錢。上半年,我們其實也有自己的答案。3月份,我們跟北京愛收控股一起成立了合資公司智算通,我們對商業(yè)閉環(huán)的理解是,國內(nèi)很多算力卡的流通效率是不高的,且機房空置率較高,所以我們這個被投企業(yè)在算力卡回收的業(yè)務上做了數(shù)億元的營收,核心是幫客戶極致節(jié)省采購成本、硬件成本,這也是一種節(jié)流的方式。

從技術落地層面來看,算力基建往往面臨算力適配性不足、調(diào)度效率低、數(shù)據(jù)與算力脫節(jié)等問題。請問師博士,清程極智在推動算力與AI應用場景深度融合時,最核心的產(chǎn)品和技術痛點是什么?您如何將高成本的算力轉(zhuǎn)化為客戶可感知、愿付費的產(chǎn)品價值?

師天麾:AI項目實際落地時,國央企客戶多為自建算力,硬件涵蓋英偉達新舊顯卡及多款國產(chǎn)型號,需求也呈多元化特征。其訴求并非僅部署DeepSeek等單一模型,而是聚焦多模態(tài)智能體應用,需兼容OCR、VAL、語音及圖文生成等多種模型。

面對底層硬件繁雜、上層應用多元的情況,不同應用與模型適配各型號顯卡的工作量極大。為此,我們在中間層搭載推理引擎,可實現(xiàn)底層多型號顯卡的便捷調(diào)用與上層多應用的順暢運行。

我們采用分階段服務:場景驗證階段,1-2臺服務器即可完成研發(fā)與AI效果評估;若需向多區(qū)域、多人員大規(guī)模落地,我們將進一步提供硬件選型指導及針對硬件、規(guī)模與應用的聯(lián)合優(yōu)化,最大化提升性價比。

李東東(主持人):下一個問題請教一下徐總,從企業(yè)實踐層面來看,朗擎數(shù)科作為數(shù)字化服務提供商,必然會接觸到不同行業(yè)客戶的算力需求。您做為企業(yè)的技術決策者能否分享一下,企業(yè)在投入算力基建后如何衡量其投資回報率?以及最容易陷入哪些“價值陷阱”?比如盲目追求算力規(guī)模、忽視應用落地效果、缺乏可持續(xù)的商業(yè)模型等,您認為背后的核心原因是什么?

徐永昌:算力行業(yè)的行業(yè)應用落地,核心前提是做好技術選型,我接觸的客戶主要分為三類:第一類僅關注服務器TFLOPS算力參數(shù),這類選型方式隱患極大;第二類會結合具體模型需求關注算力+顯存,比如為運行DeepSeek滿血版,會針對性核算一體機所需的1.4T顯存(或量化后700G顯存);第三類以自有軟件團隊的客戶為代表,需求更為精細,如華西第二醫(yī)院會明確CPU核數(shù)、主頻等細節(jié),因單純部署開源模型與結合行業(yè)數(shù)據(jù)做微調(diào)訓練、強化學習的算力需求差異顯著。

某院所不到一千萬預算的項目,初期供應商推薦十幾臺4090,但PCIE協(xié)議不適合大模型訓練,后來又推薦H200方案,而我參與項目后結合客戶“科研類后訓練及先進驗證”的核心需求,推薦了B200,理由有三:一是Blackwell架構支持FP4精度,較H200Hopper架構以及4090只支持FP8精度更具未來三年的適用性;二是性價比更高,同成本下B200推理算力(FP4下144P)遠超H200(FP8下32P);三是浸沒式液冷方案改造費不超過50萬,與傳統(tǒng)風冷相當,卻能將GPU核心溫度從90-100℃降至60-70℃,大幅降低故障率、提升MFU。

另一案例是山東某年營收700億的石油煉化企業(yè),計劃投建3000P算力中心以獲取政府電費補貼。我建議通過技術優(yōu)化將PUE降至1.1,擺脫對補貼的依賴,硬件上無需強上國產(chǎn)GPU,直接選用B200即可滿足訓練+推理需求;同時提出將3000P拆分為10個300P項目,落地至不同區(qū)縣——既契合區(qū)縣智算中心的市場需求,又能結合多區(qū)縣“十五五”AI+產(chǎn)業(yè)落地政策??偨Y而言,算力選型的核心是“由應用場景及模型倒推”,而非盲目采購服務器。

李東東(主持人):這種現(xiàn)象挺常見的,甲方客戶的需求相對明確,但是甲方客戶自身并沒有很專業(yè)全棧解決方案認知,所以前置咨詢以及方案的溝通非常重要。這也引入了我們下一個問題,影響價值轉(zhuǎn)化的瓶頸,除了甲方對方案的不了解之外,還有沒有其他的點?比如商業(yè)模式、技術落地方案或其他的場景?

師天麾:與過往市場邏輯不同,此前行業(yè)普遍采用先采購服務器再規(guī)劃后續(xù)業(yè)務的模式,市場競爭陷入同質(zhì)化內(nèi)卷,整體利潤空間被嚴重擠壓。而隨著MaaS的爆發(fā),市場格局已發(fā)生很大轉(zhuǎn)變。

我之所以高度看好MaaS,除其具備低成本、易部署的核心優(yōu)勢外,更關鍵在于其清晰且短鏈路的盈利邏輯。MaaS模式恰好打通了技術與盈利的轉(zhuǎn)化路徑,中間無過多環(huán)節(jié)干擾,技術實力的每一次提升,都能直接帶動利潤率增長。因此,技術是當前MaaS市場的核心競爭力,預計明年該市場規(guī)模有望實現(xiàn)數(shù)倍甚至十倍的增長。

值得注意的是,盡管MaaS市場仍存在價格競爭,但與此前服務器市場的競爭邏輯已截然不同。過往服務器市場的競爭聚焦于硬件本身,企業(yè)多通過壓低設備售價搶占份額;而在MaaS領域,客戶核心關注點在于服務性能與綜合報價,對底層硬件配置并無過多關注。企業(yè)可借助軟件技術優(yōu)化,在不依賴高端硬件的前提下,實現(xiàn)服務性能與性價比的雙重提升,從而有效控制成本,保障充足的利潤空間。綜上,在MaaS這一云服務場景中,技術已成為決定市場競爭力的關鍵要素。

徐永昌:非常認同師博士關于AI價值閉環(huán)痛點與瓶頸的觀點,我將其劃分為三大核心層面。其一,核心痛點聚焦于大模型本身:基座大模型的泛化能力、專業(yè)知識理解能力仍有提升空間;即便MoE架構的萬億參數(shù)模型已出現(xiàn),但諸多場景中,當前小模型的基礎能力實則被高估。不過大語言模型發(fā)展存在明確規(guī)律,每半年左右,上一代大尺寸模型的核心能力便會遷移至更小尺寸的模型中。

以實際案例來看,千問2.5具備滿尺寸模型版本,而千問3的32B模型性能已比肩千問2.5的72B模型,這一能力遷移過程具有不可逆性。據(jù)此推測,半年后32B模型在多項核心能力上,或?qū)⑦_到年初DeepSeek 671B滿血版的基礎水平。因此,基座大模型能力的持續(xù)迭代是核心前提,無論是國外的OpenAI,還是國內(nèi)的DeepSeek、MiniMax等企業(yè),仍需布局GB200、GB300等先進算力,持續(xù)推進基座大模型的構建與優(yōu)化。

其二,在基座模型成型后,行業(yè)模型后訓練階段面臨的核心問題是如何構建高性價比的算力及綜合解決方案。當前最優(yōu)路徑指向超節(jié)點架構:類似英偉達GB200、GB300的方案,通過Scale-up模式將數(shù)十個乃至數(shù)百個GPU借助高速光互聯(lián)技術整合,在邏輯上實現(xiàn)單服務器化運行。這種架構可支持訓推一體(日間用于推理、夜間開展后訓練),大幅降低單Token生成的綜合成本。據(jù)英偉達案例顯示,H200與GB200在單Token生成成本上存在數(shù)倍差距。預計2026年起,眾多企業(yè)將逐步摒棄傳統(tǒng)4U、8卡服務器,轉(zhuǎn)向高速互聯(lián)的數(shù)百卡Scale-up超節(jié)點,這種架構的普及將縮短行業(yè)模型訓練周期、降低成本,加速價值轉(zhuǎn)化進程。

其三,特定垂類場景的突破,離不開高質(zhì)量數(shù)據(jù)與行業(yè)專家資源對模型的持續(xù)優(yōu)化。以華西醫(yī)院為例,其坐擁全國最大規(guī)模的100億條真實電子病歷庫,且匯聚了國內(nèi)許多頂級醫(yī)學科學家,為醫(yī)療垂類模型優(yōu)化提供了核心支撐。

唯有依托優(yōu)質(zhì)基座模型、適配垂類需求的超節(jié)點算力,疊加高質(zhì)量行業(yè)數(shù)據(jù)與專家資源,才能推動AI Agent真正解決更多實際問題。這三大層面的問題需系統(tǒng)性突破,否則AI行業(yè)仍可能延續(xù)今年的現(xiàn)狀,市場熱度高漲,但具備實際應用價值的產(chǎn)品寥寥無幾,這正是我對當前AI價值閉環(huán)瓶頸的核心判斷。

李東東(主持人):師博士,清程極智在AI產(chǎn)品研發(fā)與算力調(diào)度優(yōu)化方面有豐富經(jīng)驗,你們認為要實現(xiàn)算力的高效價值轉(zhuǎn)化,在算力架構設計、算法與算力協(xié)同、數(shù)據(jù)治理等方面,有哪些關鍵技術舉措或關鍵指標能清晰體現(xiàn)算力投入給客戶帶來了真實的業(yè)務增長或效率革命?能否結合具體案例(比如某行業(yè)的AI應用落地)分享一下?

師天麾:正如前面講到的,AI模型真正落地時,亟需極致的全鏈路優(yōu)化。以去年的合作案例為例:我們曾與清華系多模態(tài)大模型企業(yè)生數(shù)科技(專注于圖片、視頻類模型及產(chǎn)品研發(fā))攜手,針對其一款To C圖片生成產(chǎn)品進行優(yōu)化。該產(chǎn)品基于ComfyUI(圖片生成工作流工具)開發(fā),當時單張圖片生成耗時達30秒,這速度雖在圖片生成領域處于可接受范圍,但顯著影響用戶體驗,雙方因此達成聯(lián)合優(yōu)化共識。

我們?nèi)嬲莆樟嗽摦a(chǎn)品的底層硬件顯卡規(guī)模、上層運行的圖片大模型架構及具體工作流邏輯?;趯θ珗鼍暗纳疃壤斫?,我們在自有推理產(chǎn)品上為其提供定制化優(yōu)化方案,并聯(lián)動其團隊開展算法與系統(tǒng)的聯(lián)合調(diào)優(yōu)。最終,產(chǎn)品性能實現(xiàn)5-6倍的大幅提升。由此可見,未來AI模型落地過程中,這種覆蓋硬件、中間件至上層算法應用的全鏈路打通及聯(lián)合優(yōu)化模式,將呈現(xiàn)持續(xù)增長的趨勢。

李東東(主持人):徐總,朗擎數(shù)科服務過眾多企業(yè)客戶,你們在幫助客戶搭建算力相關的解決方案時,是如何篩選核心應用場景、優(yōu)先落地高價值項目的?有沒有一套可復制的“算力+應用”落地方法論?

徐永昌:我分享的算不上方法論,更多是實踐積累的經(jīng)驗。在與客戶溝通時,無論是出資方,還是最終使用方,我們首要傳遞的是本輪AI浪潮的核心,大語言模型的基本特征,“算力、數(shù)據(jù)、算法模型”三要素,而非僅聚焦于所需的幾百P算力這類單一指標。

其次,要明確客戶的核心訴求:其引入模型基本上并非為了預訓練,關鍵是厘清其需求是模型后訓練還是單純的推理應用,這兩類需求對應的算力配置與解決方案截然不同。當我們向客戶完整呈現(xiàn)本輪AI的產(chǎn)業(yè)全貌后,即便當下未達成合作,未來其面臨 AI 相關規(guī)劃或項目時,也會優(yōu)先咨詢我們。因此,與甲方溝通時需打破一些局限,展開更全面、更深入的交流。

第三,必須對接業(yè)務專家。業(yè)務專家深諳完整業(yè)務流程,比如為客戶搭建Agent系統(tǒng)時,需通過他們明確工作流中的優(yōu)化節(jié)點,判斷哪些環(huán)節(jié)適合用大模型或多模態(tài)模型改造。僅與管理層溝通無法觸及核心問題,唯有與業(yè)務專家深入對接,精準采集需求與痛點,才能給出合理的評估與預期管理。預期管理尤為關鍵:既要避免客戶對AI短期價值產(chǎn)生過高預期,也要幫助客戶樹立中長期信心,AI必將引領行業(yè)變革,若不布局,同行的探索會使其陷入被動,短期與中長期預期的平衡能幫助客戶建立合理認知。

最后,AI全棧方案的輸出能力至關重要。以部分芯片公司為例,它們雖以GPU銷售為核心,但需構建完整的產(chǎn)業(yè)閉環(huán):既要明確千卡集群的實際使用者,也要確定服務器資產(chǎn)的承載主體或落實供應鏈金融方案,還需對接服務器集成方完成芯片部署。所以AI產(chǎn)業(yè)鏈從業(yè)者與客戶溝通時,需具備全棧思維,不是在每個環(huán)節(jié)都做到極致專業(yè),但必須能精準覆蓋各關鍵節(jié)點并清晰闡述。

總而言之,唯有以全棧視角、坦誠態(tài)度與客戶展開全方位交流,當客戶真正推進 AI 應用落地時,才會將我們作為首要合作選擇。

推理尚處爆發(fā)前夜?多模態(tài)的「快速迭代」將改寫產(chǎn)業(yè)增長節(jié)奏

李東東(主持人):行業(yè)內(nèi)普遍將殺手級應用的誕生、推理需求的爆發(fā),視作破解算力閑置困局的關鍵抓手,也將其視為下一波算力需求增長的核心引擎。二位如何判斷推理需求全面爆發(fā)的時間節(jié)點與演進節(jié)奏?

師天麾:今年AI推理市場已步入爆發(fā)前夜。正如我在演講中提及,上半年中國MaaS市場規(guī)模已實現(xiàn)4-5倍增長,部分大廠管理層甚至預判明年增速有望達到10倍。但在我看來,真正的全面爆發(fā)仍依賴大模型能力的進一步突破。

當前落地成效較好的場景,多集中于純文本大語言模型的應用,且多為前一兩年可預見的領域,例如智能客服、聊天機器人、文本生成與整理等。但純文本場景的覆蓋面有限,AI的廣泛滲透更需依托視覺、圖片、視頻等多模態(tài)技術的成熟。目前多模態(tài)應用存在兩大核心痛點:效果不穩(wěn)定且成本過高。

我曾與一位專注動態(tài)漫創(chuàng)作的導演交流,其業(yè)務核心是將小說轉(zhuǎn)化為漫畫并實現(xiàn)動態(tài)化。我提出AI可覆蓋其大部分創(chuàng)作流程,但他表示可行性較低,核心原因在于AI應用成本過高,僅能小范圍嘗試。事實上,AI具備完成這類任務的技術潛力,但高昂的成本形成了顯著壁壘。以圖片、視頻生成的“抽卡”機制為例,單張生成成本已偏高,而因效果不確定性,往往需生成4-10張才能篩選出符合需求的結果,這進一步加劇了成本負擔。

AI推理市場的全面爆發(fā),首要前提是多模態(tài)應用效果的穩(wěn)定化,這也是AI Infra領域的核心發(fā)力點。當模型結構基本定型后,通過針對主流顯卡、芯片的定向優(yōu)化,可有效提升運行效率、降低成本,為全面爆發(fā)奠定基礎。因此,多模態(tài)技術的進展至關重要。

目前多模態(tài)領域的發(fā)展值得期待。文本大模型的效果已許久未出現(xiàn)突破性的震撼進展,但圖片領域幾乎每幾個月就有新的視頻或圖片生成模型引發(fā)社交平臺熱議,技術迭代速度顯著快于文本領域,未來潛力值得關注。

徐永昌:在我看來,2025年AI推理市場尚未進入全面爆發(fā)階段。這一判斷可從我們與頭部主流大模型企業(yè)的溝通中得到印證,其服務器采購、租賃訂單的增長態(tài)勢,直觀反映出當前市場的增長節(jié)奏仍較為平緩。

不過,孫正義曾預測,到2035年AI將滲透全球5%的GDP,對應形成每年9萬億美元的龐大市場規(guī)模。據(jù)此倒推,未來數(shù)年推理算力需求大概率將保持每年十倍以上的高速增長。對在座各位而言,核心問題在于如何切入這一藍海市場、搶占細分份額。

頭部大廠及大模型企業(yè)憑借龐大的用戶基數(shù),自然占據(jù)算力需求增長的主要賽道。但對行業(yè)內(nèi)的中小企業(yè)而言,突破口在于聚焦垂類場景與邊緣側(cè)算力服務。以我們自身為例,我們提供液冷服務器整體方案,并結合垂類模型服務,為醫(yī)院、工廠、科研機構等場景提供本地化部署支持,這種模式能切實幫助AI應用企業(yè)提升營業(yè)額。

比如我們與華西醫(yī)院體系控股公司的合作:對方輸出軟件能力,我們提供硬件支撐,共同打造軟硬件一體化方案,并依托華西的品牌優(yōu)勢,在全國推廣“AI 醫(yī)聯(lián)體”項目。該模式對全國大量中小醫(yī)院、民營醫(yī)院具備極強的吸引力。這一案例或許能帶來啟發(fā):中小企業(yè)要么融入成熟的垂類應用方案生態(tài),成為其中關鍵環(huán)節(jié);要么主動對接行業(yè)鏈主企業(yè),聯(lián)合構建垂類AI Agent整體解決方案。企業(yè)需主動謀劃經(jīng)營發(fā)展,而非被動等待市場成熟。

李東東(主持人):這一趨勢成為算力產(chǎn)業(yè)主流后,又將對當前的算力基建布局、技術路徑選擇及商業(yè)模式帶來哪些影響?

師天麾:生產(chǎn)力發(fā)展必然伴隨轉(zhuǎn)型陣痛,正如汽車普及導致黃包車夫失業(yè),卻催生了司機這一新職業(yè)。AI對各行業(yè)的重塑亦是如此,在其全面爆發(fā)前,可能會涌現(xiàn)出諸多未曾預料的殺手級應用與全新玩法。這就像互聯(lián)網(wǎng)爆發(fā)初期,沒人能預見如今刷短視頻、看短劇會成為日常,也沒人想到最初為學習、看時政新聞而使用的抖音,最終走向了多元娛樂場景。人類難以想象未曾接觸過的事物,但可以確定的是,AI將深刻改變各行業(yè)生產(chǎn)方式:部分行業(yè)與職業(yè)會逐漸消失,同時也會催生大批新職業(yè)、新賽道。這些新賽道的具體形態(tài)雖難以精準預判,但值得高度期待。

徐永昌:AI的廣泛普及,首要前提是成本實現(xiàn)一個數(shù)量級的下降,每百萬Token的價格需再降低10倍以上。而這一目標的實現(xiàn),核心在于全系統(tǒng)優(yōu)化:機房層面可通過風冷改液冷提升效率;硬件端采用超節(jié)點架構,性價比遠高于傳統(tǒng)4U、8卡服務器;模型層面可依托大模型能力優(yōu)化,減少小模型運行對算力與顯存的占用,從而自然壓縮成本。預計未來半年至一年,每百萬Token價格再降10倍具備較高可行性。這也從側(cè)面反映出算力行業(yè)的激烈競爭:每6-12個月,相關價格便可能腰斬甚至出現(xiàn)更大幅度下調(diào)。這種競爭對終端用戶、普通民眾及AI應用開發(fā)企業(yè)而言實為利好,將倒逼所有AI Infra企業(yè)深耕技術、優(yōu)化服務。

算力、算法、數(shù)據(jù)「齊驅(qū)」,百倍Token調(diào)用增長將成為現(xiàn)實

李東東(主持人):2025年算力市場涌現(xiàn)了政策支持、國產(chǎn)芯片突破、算力互聯(lián)落地等關鍵事件,這些動態(tài)正深刻影響行業(yè)走向。想請兩位嘉賓結合今年的產(chǎn)業(yè)實踐,聊聊哪些事件最具里程碑意義,以及它們將如何塑造2026年算力產(chǎn)業(yè)的發(fā)展格局?

師天麾:在我看來,DeepSeek的爆火是今年AI領域最關鍵的事件,它徹底重塑了大眾與行業(yè)對AI的認知。我印象尤為深刻的是,今年年初我母親也曾使用DeepSeek,借助其生成藏頭詩用于向親友、同事發(fā)送新春祝福,還稱贊其效果極佳。事實上,前一兩年的模型也具備類似能力,并非如今的模型性能有了顛覆性提升,核心差異在于此前大眾對AI的關注度不足、未形成應用意識。

DeepSeek的崛起,推動AI從行業(yè)層面走向全民應用:無論是普通民眾、個人用戶,還是國家與政府層面,都開始高度重視AI技術并主動實踐。同時,它也帶動了AI Infra領域的爆發(fā)。其在海外的走紅,核心原因在于海外市場意外發(fā)現(xiàn),DeepSeek僅用少量硬件設備、以較低成本就訓練出了高性能模型,這背后既得益于模型架構的優(yōu)化,更離不開AI Infra軟件的支撐。今年春節(jié)后,行業(yè)內(nèi)甚至出現(xiàn)了“DeepSeek開源周”,其開源了大量Infra訓練與推理相關軟件,讓業(yè)界普遍意識到Infra軟件的核心價值。

對比去年,我們還需向投資人科普AI Infra的定義;而今年,投資人已主動洞察到其重要性,紛紛尋求合作與投資機會。此外,國產(chǎn)化進程的推進(如摩爾線程上市)、超節(jié)點技術的發(fā)展,也讓MaaS大規(guī)模并行優(yōu)化的價值愈發(fā)凸顯。通過這類大規(guī)模優(yōu)化,AI應用成本得以大幅降低,這些都是今年AI領域的關鍵突破。

徐永昌:我認同師博士剛才提及的幾個行業(yè)里程碑,我歸納為三大核心維度。

第一是模型領域,DeepSeek-R1的開源不僅引領了全球AI開源格局,更堅定了國內(nèi)外各大模型企業(yè)加大基座模型研發(fā)的決心。我們與MiniMax、智譜等企業(yè)交流后了解到,其管理層認為無需過度糾結于用戶獲取成本,若基座模型足夠優(yōu)秀,如DeepSeek-R1,有望在短時間內(nèi)實現(xiàn)數(shù)億用戶的突破。這給行業(yè)同行帶來關鍵啟示:基座模型的核心能力是大模型企業(yè)的立身之本。

第二是算力領域的突破。過去,國內(nèi)算力領域長期跟隨英偉達的技術路線,從A100、H100到GB200均是如此。令人欣喜的是,今年華為、阿里、百度、曙光等企業(yè)紛紛推出國產(chǎn)化超節(jié)點方案,標志著國內(nèi)在超節(jié)點領域已逐步追平國際水平。值得關注的是,英偉達GB200采用冷板式液冷方案,GPU滿載溫度達85℃,而國產(chǎn)GPU若與全新浸沒式液冷方案結合,可將GPU溫度從85℃降至65℃,故障率也隨之從全年3%降至1%以下。這種軟硬件的協(xié)同優(yōu)化,有望使國內(nèi)超節(jié)點在算力維度實現(xiàn)突破,甚至在明年英偉達Rubin架構超節(jié)點推出時具備反超潛力。

第三是數(shù)據(jù)領域的里程碑。今年多款AI眼鏡產(chǎn)品陸續(xù)發(fā)布,涵蓋單目綠色AR屏、雙目全彩等多種形態(tài),小米、阿里等大廠的入局更將催生數(shù)據(jù)維度的爆發(fā)。此前,通過手機移動采集現(xiàn)實世界數(shù)據(jù)存在諸多局限,如續(xù)航不足、操作不便等,而低功耗可全天佩戴的AI眼鏡,能夠?qū)崟r抓取物理世界數(shù)據(jù),這將極大加速世界模型的訓練進程。

綜上,AI“三駕馬車”(模型、算力、數(shù)據(jù))各自誕生了標志性的里程碑事件。值得關注的是,當前AI眼鏡雖仍存在諸多技術瓶頸,但已有突破性進展值得期待:國內(nèi)有家創(chuàng)業(yè)企業(yè),其創(chuàng)始人是Google Glass第一代發(fā)明人,該企業(yè)正研發(fā)定價千元以內(nèi)的雙目全彩AI眼鏡。這款產(chǎn)品可適配近視人群,能以不足千元的成本提供帶近視功能的雙目全彩AR眼鏡方案。

若該產(chǎn)品或同類產(chǎn)品能快速推向市場,并在未來兩三年內(nèi)實現(xiàn)數(shù)億副的普及規(guī)模,將引發(fā)Token消耗的爆發(fā)式增長,屆時每個人日均采集或消耗的Token量,有望從當前的約1萬提升至十萬甚至幾十萬量級。當數(shù)億用戶以日均幾十萬Token的規(guī)模消耗時,結合現(xiàn)有Token消耗基數(shù),整體規(guī)?;?qū)崿F(xiàn)百倍乃至更高倍數(shù)的增長。讓我們共同期待2026年這一行業(yè)圖景的實現(xiàn)!

李東東(主持人):最后請兩位嘉賓分別用一句話來總結一下2025年的算力市場,并用一句話或一個關鍵詞對2026年做一個展望或預測。

師天麾:2025年,國內(nèi)AI從訓練走向推理有非常明顯的轉(zhuǎn)變,并且催生了MaaS市場進展迅速。明年,推理市場以及國產(chǎn)化的進一步增長趨勢是勢不可擋的。

徐永昌:若用一個詞總結2025年的AI行業(yè),我認為是“推理”。無論是梁文鋒團隊推出的DeepSeek-R1推理大模型,還是行業(yè)對AI推理應用的廣泛探索,都印證了這一核心趨勢。

站在個人視角,我判斷2026年將聚焦兩大關鍵詞。其一為“國產(chǎn)”:2026年更多大廠及央國企將加速轉(zhuǎn)向國產(chǎn)芯片。其二為“液冷”:發(fā)改委明確要求新建智算中心PUE需低于1.3,而當前多數(shù)國產(chǎn)芯片采用風冷方案的PUE高達1.5,液冷技術成為必然選擇。因此,2026年或?qū)⒊蔀閲a(chǎn)芯片與液冷技術爆發(fā)的元年。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄