• <kbd id="yqwgi"><tr id="yqwgi"></tr></kbd>
  • <source id="yqwgi"></source>
    <li id="yqwgi"><rt id="yqwgi"></rt></li>
  • 證券日報微信

    證券日報微博

    您所在的位置: 網站首頁 > TMT頻道 > TMT行業 > 正文

    阿里云通義開源長文本模型及推理框架 百萬Tokens處理速度提升近7倍

    2025-01-27 13:11  來源:證券日報網 

        本報訊 (記者袁傳璽)

        1月27日凌晨,阿里云通義重磅開源支持100萬Tokens上下文的Qwen2.5-1M模型,推出7B及14B兩個尺寸,均在處理長文本任務中穩定超越GPT-4o-mini;同時開源推理框架,在處理百萬級別長文本輸入時可實現近7倍的提速。

        百萬Tokens長文本,可換算成10本長篇小說、150小時演講稿或3萬行代碼。兩個月前,Qwen2.5-Turbo升級了百萬Tokens的上下文輸入能力,廣受開發者和企業歡迎。如今,開源社區可基于全新的Qwen2.5-1M系列模型,進行長篇小說或多篇學術論文的解析,或是探索倉庫級代碼的分析和升級。

        Qwen2.5-1M擁有優異的長文本處理能力。在上下文長度為100萬Tokens的大海撈針(PasskeyRetrieval)任務中,Qwen2.5-1M能夠準確地從1M長度的文檔中檢索出隱藏信息,僅有7B模型出現了少量錯誤。在RULER、LV-Eval等基準對復雜長上下文理解任務測試中,Qwen2.5-14B-Instruct-1M模型不僅擊敗了自家閉源模型Qwen2.5-Turbo,還穩定超越GPT-4o-mini,為開發者提供了一個現有長上下文模型的優秀開源替代。

        大模型的長文本訓練需要消耗大量的計算資源,通義團隊通過逐步擴展長度的方法,從預訓練到監督微調再到強化學習等多個階段,高效地將Qwen2.5-1M的上下文長度從4K擴展到256K;再通過長度外推的技術,創新引入Dual Chunk Attention機制,在無須額外訓練的情況下,將上下文長度高性能地穩定擴展到1M,從而在較低成本下實現了Qwen2.5-1M模型。

        同時,為了加快推理速度,通義團隊在vLLM推理引擎基礎上,引入基于Minference的稀疏注意力機制,并在分塊預填充、集成長度外推方案和稀疏性優化等多環節創新改進?;谶@些改進的推理框架有效地加快了模型推理速度,在不同模型大小和GPU設備上,處理1M長度輸入序列的預填充速度提升了3.2倍到6.7倍。

        據了解,Qwen2.5-1M已經在魔搭社區ModelScope和HuggingFace等平臺開源,開發者可前往下載或直接體驗模型;相關推理框架也已在GitHub上開源,幫助開發者更高效地部署Qwen2.5-1M模型。開發者和企業也可通過阿里云百煉平臺調用Qwen2.5-Turbo模型API,或是通過全新的Qwen Chat平臺體驗模型性能及效果。

    (編輯 張偉)

    -證券日報網
    国产精品传媒99一区二区_国产高潮抽搐喷水高清_精品国产一区二区三区AV蜜_国产麻豆剧传媒精品国产AV
  • <kbd id="yqwgi"><tr id="yqwgi"></tr></kbd>
  • <source id="yqwgi"></source>
    <li id="yqwgi"><rt id="yqwgi"></rt></li>
  • 版權所有證券日報網

    互聯網新聞信息服務許可證 10120180014增值電信業務經營許可證B2-20181903

    京公網安備 11010202007567號京ICP備17054264號

    證券日報網所載文章、數據僅供參考,使用前務請仔細閱讀法律申明,風險自負。

    證券日報社電話:010-83251700網站電話:010-83251800

    網站傳真:010-83251801電子郵件:xmtzx@zqrb.net

    官方客戶端

    安卓

    IOS

    官方微信

    掃一掃,加關注

    官方微博

    掃一掃,加關注