日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
業(yè)界 正文
發(fā)私信給小七
發(fā)送

0

LongCat-Flash-Omni正式發(fā)布并開源:開啟全模態(tài)實時交互時代

本文作者: 小七   2025-11-03 12:27
導語:LongCat-Flash-Omni開源發(fā)布,5600億參數實現全模態(tài)低延遲交互。

11月3日, LongCat-Flash系列再升級,全新家族成員LongCat-Flash-Omni正式發(fā)布并開源,LongCat官方App同步上線公測。目前,新App已支持聯網搜索、語音通話等功能,視頻通話等功能會稍后上線;Web端則增加圖片、文件上傳和語音通話等功能。

LongCat-Flash-Omni正式發(fā)布并開源:開啟全模態(tài)實時交互時代

據介紹,LongCat-Flash-Omni以LongCat-Flash系列的高效架構設計為基礎(Shortcut-Connected MoE,含零計算專家),集成了高效多模態(tài)感知模塊與語音重建模塊,在總參數 5600 億(激活參數 270 億)的龐大參數規(guī)模下,仍實現低延遲的實時音視頻交互能力,為開發(fā)者的多模態(tài)應用場景提供了更高效的技術選擇。

新模型也是業(yè)界首個實現“全模態(tài)覆蓋、端到端架構、大參數量高效推理”于一體的開源大語言模型,首次在開源范疇內實現了對標閉源模型的全模態(tài)能力,并憑借創(chuàng)新的架構設計與工程優(yōu)化,讓大參數模型在多模態(tài)任務中能實現毫秒級響應,解決行業(yè)內推理延遲的痛點。

具體來看,LongCat-Flash-Omni在一體化框架中整合了離線多模態(tài)理解與實時音視頻交互能力,并采用完全端到端的設計,以視覺與音頻編碼器作為多模態(tài)感知器,由 LLM 直接處理輸入并生成文本與語音token,再通過輕量級音頻解碼器重建為自然語音波形,從而實現低延遲的實時交互。所有模塊均基于高效流式推理設計,視覺編碼器、音頻編解碼器均為輕量級組件,參數量均約為6億,延續(xù)了 LongCat-Flash 系列的創(chuàng)新型高效架構設計,實現了性能與推理效率間的最優(yōu)平衡。

LongCat-Flash-Omni正式發(fā)布并開源:開啟全模態(tài)實時交互時代

▲LongCat-Flash-Omni模型架構

與此同時,新模型突破“大參數規(guī)模與低延遲交互難以兼顧”的瓶頸,在大規(guī)模架構基礎上實現高效實時音視頻交互:模型總參數達 5600 億(激活參數 270 億),卻依托 LongCat-Flash 系列創(chuàng)新的 ScMoE 架構(含零計算專家)作為 LLM 骨干,結合高效多模態(tài)編解碼器和“分塊式音視頻特征交織機制”,最終實現低延遲、高質量的音視頻處理與流式語音生成。模型可支持128K tokens上下文窗口及超 8 分鐘音視頻交互,在多模態(tài)長時記憶、多輪對話、時序推理等能力上具有優(yōu)勢。

全模態(tài)模型訓練的核心挑戰(zhàn)之一是 “不同模態(tài)的數據分布存在顯著異質性”,LongCat-Flash-Omni采用漸進式早期多模融合訓練策略,在平衡數據策略與早期融合訓練范式下,逐步融入文本、音頻、視頻等模態(tài),確保全模態(tài)性能強勁且無任何單模態(tài)性能退化。

LongCat-Flash-Omni正式發(fā)布并開源:開啟全模態(tài)實時交互時代

綜合評估結果表明,LongCat-Flash-Omni在綜合性的全模態(tài)基準測試(如Omni-Bench, WorldSense)上達到了開源最先進水平(SOTA),并在文本、圖像、音頻、視頻等各項模態(tài)的能力位居開源模型前列,實現“全模態(tài)不降智”的結果:

LongCat-Flash-Omni正式發(fā)布并開源:開啟全模態(tài)實時交互時代

·       ▲LongCat-Flash-Omni 的基準測試性能

  • 文本:LongCat-Flash-Omni 延續(xù)了該系列卓越的文本基礎能力,且在多領域均呈現領先性能。相較于 LongCat-Flash 系列早期版本,該模型不僅未出現文本能力的衰減,反而在部分領域實現了性能提升。這一結果不僅印證了該團隊訓練策略的有效性,更凸顯出全模態(tài)模型訓練中不同模態(tài)間的潛在協(xié)同價值。

  •  圖像理解:LongCat-Flash-Omni 的性能(RealWorldQA 74.8分)與閉源全模態(tài)模型 Gemini-2.5-Pro 相當,且優(yōu)于開源模型 Qwen3-Omni;多圖像任務優(yōu)勢尤為顯著,核心得益于高質量交織圖文、多圖像及視頻數據集上的訓練成果。

  • 音頻能力:從自動語音識別(ASR)、文本到語音(TTS)、語音續(xù)寫維度進行評估,Instruct Model 層面表現突出:ASR 在 LibriSpeech、AISHELL-1 等數據集上優(yōu)于 Gemini-2.5-Pro;語音到文本翻譯(S2TT)在 CoVost2 表現強勁;音頻理解在 TUT2017、Nonspeech7k 等任務達當前最優(yōu);音頻到文本對話在 OpenAudioBench、VoiceBench 表現優(yōu)異,實時音視頻交互評分接近閉源模型,類人性指標優(yōu)于 GPT-4o,實現基礎能力到實用交互的高效轉化。

  • 視頻理解:LongCat-Flash-Omni 視頻到文本任務性能達當前最優(yōu),短視頻理解大幅優(yōu)于現有參評模型,長視頻理解比肩 Gemini-2.5-Pro 與 Qwen3-VL,這得益于動態(tài)幀采樣、分層令牌聚合的視頻處理策略,及高效骨干網絡對長上下文的支持。

  • 跨模態(tài)理解:性能優(yōu)于 Gemini-2.5-Flash(非思考模式),比肩 Gemini-2.5-Pro(非思考模式);尤其在真實世界音視頻理解WorldSense 基準測試上,相較其他開源全模態(tài)模型展現出顯著的性能優(yōu)勢,印證其高效的多模態(tài)融合能力,是當前綜合能力領先的開源全模態(tài)模型。

LongCat-Flash-Omni正式發(fā)布并開源:開啟全模態(tài)實時交互時代

  • 端到端交互:由于目前行業(yè)內尚未有成熟的實時多模態(tài)交互評估體系,LongCat團隊構建了一套專屬的端到端評測方案,該方案由定量用戶評分(250 名用戶評分)與定性專家分析(10 名專家,200 個對話樣本)組成。定量結果顯示:圍繞端到端交互的自然度與流暢度,LongCat-Flash-Omni 在開源模型中展現出顯著優(yōu)勢 —— 其評分比當前最優(yōu)開源模型 Qwen3-Omni 高出 0.56 分;定性結果顯示:LongCat-Flash-Omni 在副語言理解、相關性與記憶能力三個維度與頂級模型持平,但是在實時性、類人性與準確性三個維度仍存在差距,也將在未來工作中進一步優(yōu)化。

 


雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。

分享:
相關文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說