阿里通义 Qwen 系列
通义千问(Qwen)是阿里巴巴推出的开源大语言模型系列,涵盖文本推理、多模态理解、代码生成等能力。AcceleAI 提供全系列 Qwen 模型的 API 接入,兼容 OpenAI 接口规范。
可用模型
Qwen 3 系列
新一代开源大模型,在代码理解、数学推理、多语言表达和复杂推理任务上均有显著提升,综合能力对标 o1、DeepSeek-R1 等顶级模型。
| 模型 | 特点 |
|---|---|
Qwen3-235B | 旗舰模型,稀疏激活架构(实际激活参数约 22B),兼顾性能与效率 |
Qwen/Qwen3-30B-A3B | 轻量级 MoE 模型,激活参数约 3B,适合低成本推理场景 |
Qwen 3 支持思考模式和非思考模式动态切换,可根据任务复杂度灵活调整推理深度。
QvQ 系列
| 模型 | 特点 |
|---|---|
Qwen/QVQ-72B-Preview | 基于 Qwen2-VL-72B 的多模态推理模型,专注视觉推理与跨模态任务 |
Qwen 2.5 系列
| 模型 | 特点 |
|---|---|
qwen2.5-vl-72b-instruct | 视觉语言模型,支持图像理解与多轮对话 |
QwQ 系列
| 模型 | 特点 |
|---|---|
Qwen/QwQ-32B | 专注文本推理任务,具备深度思考与逻辑分析能力 |
基础调用
AcceleAI 兼容 OpenAI SDK,以下为流式调用示例:
from openai import OpenAI
client = OpenAI(
api_key="<ACCELE_AI_API_KEY>", # 从 https://api.acceleai.cn/keys 获取
base_url="https://api.acceleai.cn/v1"
)
stream = client.chat.completions.create(
model="Qwen3-235B",
messages=[
{"role": "user", "content": "用 Python 实现快速排序算法"}
],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")工具调用(Function Calling)
Qwen 2.5 及 Qwen 3 系列支持标准 OpenAI 格式的工具调用:
from openai import OpenAI
client = OpenAI(
api_key="<ACCELE_AI_API_KEY>",
base_url="https://api.acceleai.cn/v1"
)
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取指定城市的天气信息",
"parameters": {
"type": "object",
"properties": {
"city": {
"type": "string",
"description": "城市名称,如:北京"
}
},
"required": ["city"]
}
}
}
]
response = client.chat.completions.create(
model="Qwen3-235B",
messages=[{"role": "user", "content": "北京今天天气怎么样?"}],
tools=tools,
tool_choice="auto"
)
print(response.choices[0].message)MCP 工具调用
Qwen 3 系列支持 MCP(Model Context Protocol)工具,需安装 qwen-agent 依赖:
pip install qwen-agentfrom qwen_agent.llm import get_chat_model
llm = get_chat_model({
"model": "Qwen3-235B",
"api_key": "<ACCELE_AI_API_KEY>",
"model_server": "https://api.acceleai.cn/v1"
})视觉模型调用
QVQ 和 Qwen 2.5 VL 支持图像输入:
import base64
from openai import OpenAI
client = OpenAI(
api_key="<ACCELE_AI_API_KEY>",
base_url="https://api.acceleai.cn/v1"
)
# 读取并编码图片
with open("image.png", "rb") as f:
image_data = base64.b64encode(f.read()).decode("utf-8")
response = client.chat.completions.create(
model="qwen2.5-vl-72b-instruct",
messages=[
{
"role": "user",
"content": [
{
"type": "image_url",
"image_url": {"url": f"data:image/png;base64,{image_data}"}
},
{
"type": "text",
"text": "描述这张图片的内容"
}
]
}
]
)
print(response.choices[0].message.content)使用建议
- 通用对话与推理:推荐
Qwen3-235B,综合能力最强 - 低成本场景:推荐
Qwen/Qwen3-30B-A3B,性价比高 - 视觉理解:推荐
qwen2.5-vl-72b-instruct或Qwen/QVQ-72B-Preview - 深度文本推理:推荐
Qwen/QwQ-32B