日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給郭思
發(fā)送

0

成本降低 50%,智譜 GLM 背刺 GPT

本文作者: 郭思 2023-10-30 10:51
導(dǎo)語(yǔ):智譜、OpenAI、未來(lái)的智譜,三足鼎立?

成本降低 50%,智譜 GLM 背刺 GPT

作者丨郭   思

編輯丨陳彩嫻

大模型之戰(zhàn)進(jìn)入了下半場(chǎng),在中國(guó)企業(yè)爭(zhēng)先恐后搶發(fā)“自研”的類ChatGPT之后,競(jìng)爭(zhēng)不再是從0到1的有與無(wú)之爭(zhēng)。而變成落于實(shí)處,各家大模型肉搏,能否產(chǎn)生出真正的效用。

不用深度參與AI調(diào)研,大眾也可以發(fā)現(xiàn)自然語(yǔ)言處理(NLP)是大模型研發(fā)最活躍的領(lǐng)域。在這樣一個(gè)早就遍布百度、阿里以及各個(gè)研究機(jī)構(gòu)廝殺氣息的領(lǐng)域,長(zhǎng)文本的競(jìng)爭(zhēng)成為了一個(gè)可突破重點(diǎn)。

盡管有前驅(qū)者早已發(fā)展。普遍認(rèn)知上國(guó)內(nèi)對(duì)于大模型的關(guān)注始于ChatGPT是不爭(zhēng)事實(shí),近期OpenAI發(fā)布GPT-4V,使人們將目光聚焦在了多模態(tài)遷移和融合能力之上。如何對(duì)齊和超越成為一大挑戰(zhàn)。

與此同時(shí),在與OpenAI的競(jìng)爭(zhēng)中,7月19日,Meta 宣布Llama 2開源,并且可直接商用,AI大模型圈一夜之間變了天,同時(shí)也宣告著大模型加速商業(yè)化時(shí)代的到來(lái)。

這場(chǎng)對(duì)于通用人工智能(AGI)的角逐,實(shí)際上是一場(chǎng)無(wú)盡的長(zhǎng)跑、而非百米沖刺。在這樣一場(chǎng)長(zhǎng)跑之中,長(zhǎng)文本與多模態(tài)的突破該如何發(fā)力,開源江湖之中,國(guó)產(chǎn)大模型如何一爭(zhēng)高下?落于商業(yè)場(chǎng)景,哪種模式才是合適的打法?

2023年10月27日,智譜AI于 2023 中國(guó)計(jì)算機(jī)大會(huì)(CNCC)上,推出了全自研的第三代基座大模型 ChatGLM3 及相關(guān)系列產(chǎn)品,主要的亮點(diǎn)是全面瞄向GPT-4V的技術(shù)升級(jí)、模型全自研,并國(guó)產(chǎn)芯片適配、更開放的開源生態(tài)。

自研、國(guó)產(chǎn)、開源,這幾個(gè)關(guān)鍵詞加在一起形成了智譜AI的大致方向,也回答了部分我們提出的疑問(wèn)。

1、中國(guó)大模型發(fā)展元年

故事,從2020年開始。

2020 年,其實(shí)并不是普遍認(rèn)知上的大模型發(fā)展元年。但現(xiàn)在回望,事實(shí)遠(yuǎn)非如此。2020年恰是中國(guó)大模型過(guò)程中值得仔細(xì)玩味的發(fā)展元年——今日世界的涇渭分野,在彼時(shí)已伏脈千里。

這一年發(fā)生了兩件典型事件:

2020 年 6 月,OpenAI 突然發(fā)布了一個(gè)超乎所有人想象的研究成果——參數(shù)規(guī)模高達(dá) 1750 億的 GPT-3。同是預(yù)訓(xùn)練語(yǔ)言模型,但 GPT-3 的參數(shù)量是 BERT 的 500 倍,不僅能做語(yǔ)言生成,而且在各項(xiàng)語(yǔ)言理解類的任務(wù)上也超過(guò)了 BERT。

同年10月,中國(guó)北京,集聚了中國(guó)頂尖科技人才的智源研究院率先發(fā)起大模型項(xiàng)目,在此之后,發(fā)布的“悟道 1.0”是當(dāng)時(shí)中國(guó)首個(gè)超大模型,再到“悟道 2.0”發(fā)布,其成為全球最大的智能模型,模型參數(shù)規(guī)模達(dá)到 1.75 萬(wàn)億,是 OpenAI 所發(fā)布的 GPT-3 的 10 倍,受到了國(guó)內(nèi)外的矚目。

中美大模型技術(shù)分割之戰(zhàn),在這個(gè)時(shí)間節(jié)點(diǎn)有了新的發(fā)展方向。

成立于2019年的智譜AI的故事也與這兩件事情息息相關(guān),智譜AI多數(shù)團(tuán)隊(duì)成員,曾參與清華大學(xué)與智源研究院的合作項(xiàng)目"悟道"。

至于2020年,GPT-3的到來(lái),帶給智譜AI的與其說(shuō)是影響,不如說(shuō)是焦慮。

彼時(shí),智譜CE0張鵬既震驚于GPT-3的涌現(xiàn)能力,也在思考要不要All  in超大規(guī)模參數(shù)大模型。權(quán)衡過(guò)后,智譜AI決定把OpenAI作為自己的對(duì)標(biāo)對(duì)象,投入到超大規(guī)模預(yù)訓(xùn)練模型的研發(fā)當(dāng)中。

一個(gè)稠密的、有千億參數(shù)規(guī)模的超級(jí)大模型,或許會(huì)帶來(lái)人工智能的突破。這是張鵬堅(jiān)定的信念。

但在技術(shù)路線上,智譜AI想做出的是與OpenAI不一樣的事情。

智譜AI環(huán)顧四周,當(dāng)時(shí)主要存在BERT、GPT和T5幾種大模型預(yù)訓(xùn)練框架。

GPT,本質(zhì)上是一個(gè)從左到右的語(yǔ)言模型,常用于無(wú)條件生成任務(wù)(unconditional generation);BERT則是一個(gè)自編碼模型,擅長(zhǎng)自然語(yǔ)言理解任務(wù)(NLU,natural language understanding tasks),常被用來(lái)生成句子的上下文表示;T5(全稱為Transfer Text-to-Text Transformer )則是 encoder-decoder ,是一個(gè)完整的Transformer結(jié)構(gòu),包含一個(gè)編碼器和一個(gè)解碼器,常用于有條件的生成任務(wù) (conditional generation)。

同樣一份英文試卷丟給這三個(gè)模型預(yù)訓(xùn)練框架,GPT能通過(guò)預(yù)測(cè)下一個(gè)詞來(lái)做題,通過(guò)大量寫作練習(xí)來(lái)準(zhǔn)備考試,BERT則擅長(zhǎng)通過(guò)詞句之間關(guān)系來(lái)做題,通過(guò)理解去考試,其復(fù)習(xí)資料主要源于課本和維基百科,T5則擅長(zhǎng)將題目形式化,比如將每個(gè)文本處理問(wèn)題都看成“Text-to-Text”問(wèn)題 ,所有題都在一個(gè)框架下解答,具有較為強(qiáng)大的遷移能力。

成本降低 50%,智譜 GLM 背刺 GPT

然而,沒(méi)有一個(gè)預(yù)訓(xùn)練框架對(duì)包括自然語(yǔ)言理解(NLU)、無(wú)條件生成和有條件生成在內(nèi)的三個(gè)主要類別的所有任務(wù)都表現(xiàn)最好。

GLM的思想就是想要結(jié)合以上幾種模型的優(yōu)點(diǎn),又不增加太多的參數(shù)量。

2021年9月,在團(tuán)隊(duì)的共同努力下,智譜AI開始了GLM預(yù)訓(xùn)練架構(gòu)的研發(fā),并訓(xùn)練了百億參數(shù)模型GLM-10B。

技術(shù)先進(jìn),不能讓商業(yè)化路途十分坦暢。

據(jù)熟悉智譜AI的行業(yè)人士告訴AI科技評(píng)論,其實(shí)智譜AI在2021年開始融資的時(shí)候,幾乎沒(méi)人看得懂GLM框架,也沒(méi)什么人想投,智譜AI很無(wú)奈,只能開源。

如果說(shuō)GLM-10B的開源是迫于無(wú)奈之舉,那在GLM-130B正式誕生之后,資本市場(chǎng)對(duì)智譜的追捧則充分說(shuō)明了整個(gè)行業(yè)對(duì)大模型的認(rèn)識(shí)在逐漸成熟。

2022年8月,智譜AI推出GLM-130B。在概念上的獨(dú)特性和工程上的努力使GLM-130B在廣泛的基準(zhǔn)(總共112個(gè)任務(wù))上表現(xiàn)出超過(guò)GPT-3水平的性能。

值得一提的是,在誕生之初,GLM-130B就在華為昇騰芯片進(jìn)行了適配訓(xùn)練。

很快,智譜AI身后聚集了一批知名VC。就在GLM-130B發(fā)布的第二個(gè)月,智譜AI拿到了由君聯(lián)資本和啟明創(chuàng)投聯(lián)合領(lǐng)投的1億元B輪融資。

在此之后,智譜AI的估值便一路高飛猛進(jìn)。從2020年底的估值約 20 億元人民幣,到如今的 140 億元,智譜AI已經(jīng)成為中國(guó)估值最高的大模型創(chuàng)業(yè)公司。

成本降低 50%,智譜 GLM 背刺 GPT

2、大模型「上甘嶺之戰(zhàn)」

鋼鐵與鋼鐵意志的交鋒,是人們對(duì)于二戰(zhàn)中上甘嶺一戰(zhàn)的描述,這是歷史上一場(chǎng)有名的硬戰(zhàn)。

在經(jīng)歷了2022年ChatGPT引爆的生成式AI熱潮以及2023年百度文心、阿里通義、華為盤古、訊飛星火、商湯日日新等30余個(gè)大模型的悉數(shù)登場(chǎng)之后,大模型的競(jìng)爭(zhēng)炮火密度也到達(dá)了上甘嶺之戰(zhàn)的程度。

張鵬在多個(gè)場(chǎng)合引用了紅杉中國(guó)關(guān)于生成式AI的觀點(diǎn),市場(chǎng)的性質(zhì)正在演變。炒作和閃光正在讓位于真實(shí)的價(jià)值和整體產(chǎn)品體驗(yàn)。生成式AI的下半場(chǎng)競(jìng)爭(zhēng)關(guān)鍵是原生應(yīng)用。

讓大模型有應(yīng)用價(jià)值,技術(shù)的突破點(diǎn)還可以往什么方向發(fā)展?長(zhǎng)文本和多模態(tài)的融合似乎是這場(chǎng)戰(zhàn)爭(zhēng)中的長(zhǎng)槍和大炮。

在ChatGLM 3 系列模型發(fā)布后,智譜成為了目前國(guó)內(nèi)唯一一個(gè)對(duì)標(biāo)OpenAI全模型產(chǎn)品線的公司:

成本降低 50%,智譜 GLM 背刺 GPT

提及OpenAI全模型產(chǎn)品線,我們不得不提到OpenAI近期發(fā)布的GPT-4V,在視覺(jué)理解、描述、推理等諸多方面表現(xiàn)出了類似人類水平的能力。

據(jù)張鵬介紹,瞄準(zhǔn)GPT-4V,ChatGLM3 實(shí)現(xiàn)了若干全新功能的迭代升級(jí),包括:多模態(tài)理解能力的CogVLM-看圖識(shí)語(yǔ)義,在10余個(gè)國(guó)際標(biāo)準(zhǔn)圖文評(píng)測(cè)數(shù)據(jù)集上取得SOTA,CogVLM也被譽(yù)為“十四邊形戰(zhàn)士”。

在現(xiàn)場(chǎng),我們也看到了ChatGLM3的看圖識(shí)語(yǔ)義能力,丟給他一張照片,他能立馬識(shí)別照片是在哪里拍攝的。

ChatGLM3代碼增強(qiáng)模塊 Code Interpreter則可以理解為讓模型具備寫代碼的能力,能根據(jù)用戶需求生成代碼并執(zhí)行,自動(dòng)完成數(shù)據(jù)分析、文件處理等復(fù)雜任務(wù);

網(wǎng)絡(luò)搜索增強(qiáng)WebGLM-接入搜索增強(qiáng),能自動(dòng)根據(jù)問(wèn)題在互聯(lián)網(wǎng)上查找相關(guān)資料并在回答時(shí)提供參考相關(guān)文獻(xiàn)或文章鏈接。

此外,ChatGLM3此次還推出可手機(jī)部署的端測(cè)模型ChatGLM3-1.5B和ChatGLM3-3B,支持包vivo、小米、三星在內(nèi)的多種手機(jī)以及車載平臺(tái),甚至支持移動(dòng)平臺(tái)上 CPU 芯片的推理,速度可達(dá)20 tokens/s。在火熱的Agent方面,ChatGLM3 集成了自研的 AgentTuning 技術(shù),激活了模型智能代理能力。

既然是對(duì)標(biāo)GPT-4V,ChatGLM3也不得不面臨輸入同一個(gè)問(wèn)題,得到的答案可能是不相同的難題。因?yàn)?,模型往往通過(guò)采樣的方式,決定token的產(chǎn)出結(jié)果,而不是固定取softmax算出的最大概率token。也就是說(shuō),幻覺(jué)問(wèn)題極有可能在實(shí)際操作中出現(xiàn)。

CNCC大會(huì)的ChatGLM3的表現(xiàn)也有一個(gè)小插曲,生成一張心形圖片,最后變成函數(shù)圖,也正是幻覺(jué)現(xiàn)象在作怪。

除此之外,據(jù)張鵬介紹,此次ChatGLM3的語(yǔ)義能力與邏輯能力也大大增強(qiáng)。不同并發(fā)下的Token生成速度相比其他主流開源模型如vLLM,提升2-3倍。對(duì)此,張鵬介紹道,一般而言語(yǔ)義數(shù)與 token 之間是1:1.8的比例關(guān)系,也就是說(shuō)20 token相當(dāng)于30到40個(gè)漢字,其實(shí)這也是一般人的每秒平均閱讀次數(shù)。

現(xiàn)階段的ChatGLM3-1.5B-Base的性能在各個(gè)評(píng)測(cè)級(jí)上已經(jīng)相當(dāng)于ChatGlm2-6B-Base的性能。參數(shù)下降,但是性能卻明顯提升,這保證了在文本處理上ChatGLM3的表現(xiàn)。

語(yǔ)義能力與邏輯能力其實(shí)是NLP領(lǐng)域老生常談的話題,只不過(guò),如今的大模型競(jìng)爭(zhēng),早已從注重多輪對(duì)話能力演變成了對(duì)長(zhǎng)文本能力的追逐之中。

近期,月之暗面發(fā)布智能助手產(chǎn)品Kimi Chat可支持輸入20萬(wàn)漢字,按OpenAI的計(jì)算標(biāo)準(zhǔn)約為40萬(wàn)token;港中文賈佳亞團(tuán)隊(duì)聯(lián)合MIT發(fā)布的新技術(shù)LongLoRA,可將7B模型的文本長(zhǎng)度拓展到10萬(wàn)token,70B模型的文本長(zhǎng)度拓展到3.2萬(wàn)token。

在月之暗面Kimi Chat發(fā)布之際,楊植麟就告訴過(guò)AI科技評(píng)論,目前很多長(zhǎng)上下文的模型走的是以下三種捷徑:金魚模型、蜜蜂模型、蝌蚪模型。

“蜜蜂模型”是關(guān)注局部,忽略了全局,雖然可以輸入整個(gè)上下文,但模型可能只是采樣其中的局部。比如一篇文章的關(guān)鍵在中間,那么它就無(wú)法提取到關(guān)鍵信息?!膀蝌侥P汀眲t是能力不夠,可能只有10億的參數(shù)量,并不是千億級(jí)別的,所以能力有限?!敖痿~模型”可以理解為,以滑動(dòng)窗口的方式,直接主動(dòng)拋棄了很多上文,雖然號(hào)稱的范圍很長(zhǎng),但是實(shí)際上支持的很短,這種鯨魚模型很難解決很多任務(wù)

三種模型各有利弊,暫時(shí)沒(méi)有一個(gè)合適的技術(shù)模型能完美地解決所有難題,各家大模型能做的僅僅是在參數(shù)、注意力和足夠的信息之間進(jìn)行平衡與取舍,達(dá)到適合的范圍。

算法層面各有千秋,智譜AI告訴我們長(zhǎng)文本的突破也許可以從硬件方面下手。

此次CNCC大會(huì),張鵬也宣布開源ChatGLM3-6B-32K。

眾所周知,僅就多輪對(duì)話能力而言,開源模型和私有模型部署存在代差。目前絕大多數(shù)開源模型的上下文都只有2k,而GPT-3.5已經(jīng)升級(jí)到了16k,GPT-4目前支持8K,Claude的特殊版本極限可以支持100k。ChatGLM3-6B的上下文直接提升到了32k,達(dá)到了私有模型水平。

從2k擴(kuò)展到32k,ChatGLM3主要是應(yīng)用了一種叫做 FlashAttention 的技術(shù)。關(guān)于FlashAttention,“FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness”一文介紹,其實(shí)長(zhǎng)文本能力的難點(diǎn)在于需要增加序列長(zhǎng)度,注意力層是主要瓶頸,因?yàn)樗倪\(yùn)行時(shí)間和內(nèi)存會(huì)隨序列長(zhǎng)度的增加呈二次(平方)增加。

其實(shí)也就可以理解為一個(gè)人的閱讀文本越長(zhǎng),注意力越不集中,耗費(fèi)的精力越多,F(xiàn)lashAttention是從精力方面下手,利用GPU非勻稱的存儲(chǔ)器層次結(jié)構(gòu),實(shí)現(xiàn)了顯著的內(nèi)存節(jié)?。◤钠椒皆黾愚D(zhuǎn)為線性增加)和計(jì)算加速(提速2-4倍),而且計(jì)算結(jié)果保持一致。也就是說(shuō)同樣的文本,因?yàn)閭€(gè)人精力的提升,閱讀速度變得更快了。

成本降低 50%,智譜 GLM 背刺 GPT

3、開源在前,芯片在后

開源大模型的風(fēng)潮,最開始是Meta燒了一把大火。

此前,ChatGPT月活剛突破1億,Meta就立馬推出LLaMA(“羊駝”);羊駝被“非故意開源”之后,基于開源模型產(chǎn)生的GPT平替大爆發(fā)。百川智能的Baichuan、復(fù)旦的Moss、智源的天鷹等等,不一而足。

開源的意義,對(duì)于商業(yè),意味著什么?

這個(gè)問(wèn)題從Meta發(fā)布Llama2之后微軟的反應(yīng)可以看出端倪,在7月19日Meta正式發(fā)布首個(gè)開源商用大模型Llama2后,原本和OpenAI擁有長(zhǎng)期、深入合作的微軟成了Llama 2的「首選合作伙伴」,該大模型將通過(guò)微軟云Azure分發(fā)。

敵人的敵人便是朋友,技術(shù)開源從某種程度上來(lái)說(shuō)是撬動(dòng)商業(yè)蛋糕最好的手段。

2023年,智譜AI選擇將單卡版模型ChatGLM-6B進(jìn)行開源,供研究者與個(gè)人開發(fā)者們進(jìn)行微調(diào)和部署。

ChatGLM-6B的受歡迎程度是意料之中的,多位開發(fā)者曾公開評(píng)價(jià),相對(duì)于LLaMA-7B、BLOOMZ-7B1等同類模型來(lái)說(shuō),ChatGLM-6B裸測(cè)中文效果最好、模型參數(shù)量更?。?2億),國(guó)內(nèi)開發(fā),具有本土優(yōu)勢(shì)。

數(shù)據(jù)顯示,智譜AI的開源模型在全球下載量已超過(guò)1000萬(wàn)次,其還針對(duì)不同應(yīng)用場(chǎng)景,開發(fā)出了生成式AI提效助手智譜清言以及高效率代碼模型CodeGeeX等AIGC模型及產(chǎn)品。

而具體至中國(guó)的語(yǔ)境,開源的意義,意味著什么?

這個(gè)問(wèn)題則可以用芯片領(lǐng)域著名的RISC-V來(lái)回答,由英特爾和ARM公司主導(dǎo)的芯片架構(gòu)領(lǐng)域,X86和ARM幾乎處于壟斷地位,架構(gòu)存在不授權(quán)或不供應(yīng)等風(fēng)險(xiǎn)的大背景下。在此種情形之下,開源的RISC芯片架構(gòu)項(xiàng)目,其發(fā)起初衷便是可以被自由地用于任何的地方,允許任何人設(shè)計(jì)、制造和銷售RISC-V芯片和軟件。

由于具備開源開放的特性,RISC-V架構(gòu)也因此被國(guó)產(chǎn)廠商看作是國(guó)產(chǎn)芯片彎道超車的機(jī)遇。

放至大模型領(lǐng)域,在OpenAI閉源的情況下,大眾對(duì)于開源的需求與日俱增,而在可以選擇又必須選擇國(guó)產(chǎn)的情況下,智譜AI成為了最佳選項(xiàng)之一。

2023 中國(guó)計(jì)算機(jī)大會(huì)(CNCC)上,智譜CEO張鵬表示多模態(tài)CogVLM-17B已開源,它在10個(gè)多模態(tài)榜單中排名第一。

智能體AgentLM能讓開源模型達(dá)到甚至超過(guò)閉源模型的Agent 能力。

除此之外,張鵬還強(qiáng)調(diào)了全面適配國(guó)產(chǎn)硬件生態(tài),正如前文所提,早在130B階段,GLM-130B就適配了華為的芯片,如今用華為芯片推理速度提升超3倍。

對(duì)智譜AI而言,在大模型競(jìng)爭(zhēng)之中,算力是一個(gè)制約發(fā)展的重要因素。情況非常復(fù)雜,變化很快,影響也很大。推進(jìn)國(guó)產(chǎn)化芯片適配是很有必要的。

成本降低 50%,智譜 GLM 背刺 GPT

對(duì)于整個(gè)國(guó)內(nèi)環(huán)境而言,智譜AI 目前是國(guó)內(nèi)唯一全內(nèi)資、國(guó)產(chǎn)自研的大模型企業(yè),適配國(guó)產(chǎn)芯片,能讓智譜面對(duì)不同類型的用戶不同類型的芯片提供不同等級(jí)的認(rèn)證和測(cè)試,這意味著智譜AI 的大模型是安全可控的,這也將直接反哺智譜AI 的商業(yè)化能力。

這也是為什么智譜如今融資十分快速的原因。

而在全面生態(tài)上,目前智譜 AI GLM大模型已經(jīng)應(yīng)用于政務(wù)、金融、能源、制造、醫(yī)療等領(lǐng)域,支持昇騰、神威超算、海光DCU、海飛科、沐曦曦云、算能科技、天數(shù)智芯、寒武紀(jì)、摩爾線程、百度昆侖芯、靈汐科技、長(zhǎng)城超云10余種國(guó)產(chǎn)硬件生態(tài),合作伙伴包括阿里、騰訊云、火山引擎、華為、美團(tuán)、微軟、OPPO、海天瑞聲等數(shù)十家公司。


4、國(guó)產(chǎn)大模型圍剿「GPT」之后

前段時(shí)間,在家電領(lǐng)域出現(xiàn)了關(guān)于國(guó)產(chǎn)吹風(fēng)機(jī)的討論。最核心的聲音在于戴森之前無(wú)國(guó)產(chǎn)吹風(fēng)機(jī)。這句話并不是指的對(duì)戴森這一品牌的吹捧,而是對(duì)中國(guó)家電行業(yè)的現(xiàn)狀反思。

為什么中國(guó)造不出戴森,這個(gè)命題放在中國(guó)的很多行業(yè)都可以成立。為什么中國(guó)沒(méi)有蘋果、特斯拉這樣的領(lǐng)頭羊企業(yè),這個(gè)疑問(wèn)放到大模型領(lǐng)域,則變成了為什么中國(guó)沒(méi)有OpenAI?

在大家都不是OpenAI的情況下,智譜AI始終追求對(duì)標(biāo)OpenAI,張鵬也表示,智譜AI只會(huì)也只能和OpenAI和過(guò)去的自己比較。

從全局視角來(lái)看待,早在19年就成立的智譜AI在自我發(fā)展的過(guò)程中碰上了OpenAI,OpenAI給所有中國(guó)企業(yè)或機(jī)構(gòu)都上了一課,如今,他卻是最有可能與OpenAI對(duì)標(biāo),走出一條獨(dú)屬于中國(guó)大模型自主之路的企業(yè)。

歷史的有趣之處在于,它并不是由單一因素推動(dòng)發(fā)展,而是由各個(gè)不同要素疊加在一起,無(wú)數(shù)偶然所演變成的必然。當(dāng)一個(gè)國(guó)家全力推動(dòng)國(guó)產(chǎn)、一種技術(shù)源于國(guó)產(chǎn)、一家公司又能做成國(guó)產(chǎn)。

三者的命運(yùn)交相輝映,一段歷史的注腳就此產(chǎn)生。

在前文,我們已經(jīng)討論過(guò)智譜AI在國(guó)產(chǎn)化上的布局,而具體至商業(yè)落地,張鵬在CNCC大會(huì)表示智譜開放平臺(tái)ChatGLM-turbo價(jià)格降低了50%,這似乎回到了故事的開端,大模型的涌現(xiàn)能力讓眾人詫異,但高居不下的成本讓人望而卻步,一個(gè)無(wú)法面向全人類的產(chǎn)品,性能再完美,商業(yè)落地也會(huì)存在瑕疵。

而這份瑕疵,卻恰恰是智譜AI與一眾國(guó)產(chǎn)廠商最應(yīng)追求的完美之處。雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng)) 雷峰網(wǎng) 雷峰網(wǎng)

成本降低 50%,智譜 GLM 背刺 GPT


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

成本降低 50%,智譜 GLM 背刺 GPT

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)