基础概念
本页面介绍使用 AcceleAI API 前需要了解的核心概念。
什么是 API 中转服务
AcceleAI 是一个 AI 模型 API 聚合平台。我们通过正规授权的云服务商渠道,将 OpenAI、Anthropic、Google 等多家 AI 模型提供商的 API 统一为兼容的接口格式,让你无需分别注册各家账号、处理跨境支付和网络问题,只需一个 API Key 即可调用所有模型。
工作原理:你的请求 → AcceleAI 转发 → 模型提供商 → 返回结果 → 你的应用
AcceleAI 仅作为转发通道,默认不存储任何请求内容和模型返回结果。
API Key
API Key 是你调用 AcceleAI 服务的凭证。每个 Key 可以访问平台上的所有可用模型。
- 获取方式:前往 API Key 管理页面 创建
- 格式:以
sk-开头的字符串 - 使用方式:在 HTTP 请求头中通过
Authorization: Bearer <ACCELE_AI_API_KEY>传递
[!CAUTION] 请妥善保管 API Key,不要将其提交到 Git 仓库、暴露在前端代码或公开分享。如果 Key 泄露,请立即在控制台删除并重新创建。
Base URL
Base URL 是 API 请求的基础地址。AcceleAI 提供多种接口格式,对应不同的 Base URL:
| 接口格式 | Base URL | 说明 |
|---|---|---|
| OpenAI 兼容 | https://api.acceleai.cn/v1 | 适用于所有模型,兼容 OpenAI SDK 和绝大多数第三方工具 |
| Anthropic 兼容 | https://api.acceleai.cn | 适用于 Anthropic SDK,支持 Claude 系列模型 |
| Gemini 原生 | https://api.acceleai.cn/gemini | 适用于 Google GenAI SDK,支持 Gemini 系列模型 |
迁移方法:如果你已有使用 OpenAI 官方 API 的代码,只需将 Base URL 从 https://api.openai.com/v1 替换为 https://api.acceleai.cn/v1,并将 API Key 替换为 AcceleAI 的 Key,其余代码无需任何修改。
from openai import OpenAI
# 原来的代码
# client = OpenAI(api_key="sk-xxx")
# 切换到 AcceleAI,只改这两行
client = OpenAI(
api_key="<ACCELE_AI_API_KEY>",
base_url="https://api.acceleai.cn/v1"
)Token(令牌)
Token 是 AI 模型处理文本的基本单位。模型不直接处理文字,而是将文本拆分为 Token 后进行计算。
Token 与文字的换算
| 语言 | 大致换算 |
|---|---|
| 英文 | 1 个单词 ≈ 1-2 个 Token |
| 中文 | 1 个汉字 ≈ 1.5-2 个 Token |
| 代码 | 因语言而异,通常比自然语言消耗更多 Token |
示例:“你好,世界” 大约消耗 4-6 个 Token。
[!TIP] 可以使用 OpenAI Tokenizer 在线工具精确计算文本的 Token 数量。
输入 Token 与输出 Token
每次 API 调用会消耗两部分 Token:
- 输入 Token(Prompt Tokens):你发送给模型的内容,包括系统提示词、历史对话、当前问题
- 输出 Token(Completion Tokens):模型生成的回复内容
不同模型的输入和输出 Token 价格可能不同,通常输出 Token 比输入 Token 更贵。
上下文窗口
上下文窗口是模型单次对话能处理的最大 Token 数(输入 + 输出之和)。超出上下文窗口的内容会被截断。
| 模型 | 上下文窗口 |
|---|---|
| GPT-4o | 128K Token |
| Claude Sonnet 4 | 200K Token |
| Gemini 2.5 Pro | 1M Token |
| DeepSeek V3 | 128K Token |
计费方式
AcceleAI 采用按量付费模式,根据实际消耗的 Token 数量计费。
计费公式
费用 = 输入 Token 数 × 输入单价 + 输出 Token 数 × 输出单价余额与额度
节省 Token 的技巧
- 精简系统提示词:避免冗长的 System Prompt,只保留必要的指令
- 控制历史消息:不必每次发送完整对话历史,适当截断早期消息
- 设置
max_tokens:限制模型输出长度,避免生成不必要的冗长回复 - 选择合适的模型:简单任务使用轻量模型(如 GPT-4o-mini),复杂任务再用高级模型
模型选择
AcceleAI 支持多家提供商的模型。选择模型时可以考虑以下因素:
| 需求 | 推荐模型 | 理由 |
|---|---|---|
| 日常对话、翻译 | GPT-4o-mini、Gemini 2.5 Flash | 速度快、成本低 |
| 复杂推理、编程 | Claude Sonnet 4、GPT-4o | 能力强、性价比高 |
| 长文档处理 | Gemini 2.5 Pro、Claude Opus 4 | 超大上下文窗口 |
| 图片生成 | GPT-Image、Imagen 4、DALL-E 3 | 各有特色 |
| 代码生成与补全 | Claude Sonnet 4、DeepSeek V3 | 代码能力突出 |
下一步
- 快速开始 — 完成首次 API 调用
- OpenAI 兼容格式 — 了解最通用的接口格式
- 常见问题 — 查看常见疑问解答