通義千問放大招,新模型震撼登場且全面開源!歷經潛心研發,這款模型基于海量數據完成預訓練,優化后的架構大幅提升性能。面對復雜數學問題,能條理清晰給出解答;處理多語言任務時,輕松實現流暢交互。開源后,開發者可自由獲取模型,基于其特性,在智能客服、內容創作、智能輔助辦公等多領域探索創新應用,為行業發展注入新活力。
8月7日,阿里通義千問發布更小尺寸新模型,即Qwen3 - 4B - Instruct - 2507和Qwen3 - 4B - Thinking - 2507。通義千問稱,Qwen3 - 4B - Instruct - 2507在非推理領域全面超越閉源的GPT4.1 - Nano;Qwen3 - 4B - Thinking - 2507在推理領域可媲美中等規模的Qwen3 - 30B - A3B(thinking)。目前,新模型已在魔搭社區、HuggingFace正式開源。
新模型在非推理領域表現出色,Qwen3-4B-Instruct-2507全面超越了閉源的小尺寸模型GPT4.1-Nano,并在性能上接近中等規模的Qwen3-30B-A3B(non-thinking)。在推理領域,Qwen3-4B-Thinking-2507的表現甚至可以與Qwen3-30B-A3B(thinking)相媲美。
官方指出,2507版本的Qwen3-4B模型特別適合在手機等端側硬件上部署,這將使得手機等移動設備能夠高效地運行這些模型。
Qwen3-4B-Instruct-2507模型的通用能力得到了大幅提升,不僅超越了商業閉源的小尺寸模型GPT-4.1-nano,而且在性能上接近Qwen3-30B-A3B(non-thinking)。新模型還覆蓋了更多語言的長尾知識,并在主觀和開放性任務中增強了人類偏好對齊,能夠提供更符合人們需求的答復。此外,模型的上下文理解能力擴展至256K,使得小模型也能夠處理長文本。
Qwen3-4B-Thinking-2507模型在推理能力上得到了大幅增強,AIME25得分高達81.3分,推理表現可以媲美Qwen3-30B-Thinking模型。特別是在AIME25測評中,該模型在數學能力方面表現出色,以4B參數量獲得了81.3分的高分。此外,該模型的Agent分數也非常突出,相關評測均超越了更大尺寸的Qwen3-30B-Thinking模型。模型的256K tokens上下文理解能力支持更復雜的文檔分析、長篇內容生成、跨段落推理等場景,為用戶提供更加豐富的應用體驗。
瀏覽量:02025-12-03
瀏覽量:02025-12-03
瀏覽量:02025-12-03
瀏覽量:02025-12-03
瀏覽量:02025-12-03
瀏覽量:02025-12-03