工具档案
Qwen3-235B
阿里通义千问开源旗舰,235B参数仅22B活跃,极致成本效率。
完全开源,可自由部署和微调
MoE架构极致高效,仅激活22B参数
262K超长上下文窗口
自托管部署对硬件要求非常高(需多卡)
中文场景优秀但英文略逊闭源旗舰
生态与工具支持不如OpenAI/Anthropic成熟
8.3
编辑评分
产品简介
Qwen3-235B-A22B是阿里于2025年7月发布的开源MoE大模型(2507版本),总参数235B但每token仅激活22B(top-k路由激活8个专家),计算量较同规模稠密模型降低约90%。提供Instruct和Thinking两种变体,262K上下文窗口。在编码、数学和通用基准上与DeepSeek-R1、o3-mini持平。完全开源可自部署,第三方API低至$0.07/百万token输入。
用户反馈摘要
样本不足,能跑但真实体验少
用户认可
- 48G 显存跑 235B 量化版时,被直接评价“没有一点浪费”,且回复质量明显强于 Qwen3-32B
- 小尺寸本地部署门槛不高,4060 8G 跑 8B 被形容为“很爽”
用户顾虑
- 对比讨论里多次提到仍落后最新 DeepSeek-V3 和 R1
- SimpleQA 表现被反复点名偏弱
优点
- 完全开源,可自由部署和微调
- MoE架构极致高效,仅激活22B参数
- 262K超长上下文窗口
- 编码与数学能力接近一线闭源模型
不足
- 自托管部署对硬件要求非常高(需多卡)
- 中文场景优秀但英文略逊闭源旗舰
- 生态与工具支持不如OpenAI/Anthropic成熟
- 版本迭代快,社区文档偶有滞后
核心功能
MoE稀疏激活(22B/235B) Instruct/Thinking双模式 262K上下文窗口 多语言支持 代码生成 数学推理
背景信息
- 融资
- 阿里巴巴
- 技术
- MoE架构,top-k路由