常见问题
数据安全与隐私
AcceleAI 是否会存储 API 请求内容?
不会。AcceleAI 不存储任何通过 API 发送的请求内容和模型返回结果。系统仅记录必要的使用数据:账户信息、调用日志、模型选择、token 消耗量和支付记录,不会记录用户的输入内容和输出内容。
使用 API 时会记录哪些数据?
仅记录运营所需的基础数据:账户标识、API 调用时间、所用模型名称、token 用量及费用。您的提示词(Prompt)和模型回复内容不在记录范围内。
账户与余额
有余额却无法调用某些模型?
AcceleAI 采用预扣费机制,系统会根据模型的最大输出 token 数预留余额。如果余额不足以覆盖一次完整输出的费用,请求将被拒绝。
解决方案:
- 确保余额 >= 模型单价 x 最大输出 token 数
- 在请求中设置合理的
max_tokens值以降低预扣金额 - 查看余额详情:https://api.acceleai.cn/usage
账户被禁用怎么办?
请联系客服处理。常见封禁原因:
- 在翻译插件等工具中使用推理模型(如 GPT-5),因处理缓慢可能触发安全策略
- 通过 Grok 模型发送违规内容
建议翻译场景使用 GPT-4o mini 或 Gemini 等轻量模型。
模型行为
为什么 GPT-5 有时自称是 GPT-4?
这属于大模型幻觉现象。模型本身不具备自我认知能力,「GPT-5」是 OpenAI 在训练后赋予的标签。API 版本没有 Web 版内置的系统提示词,因此模型对自身身份的回答不可靠。
相同的提示词为什么每次结果不同?
大语言模型基于概率采样生成内容,temperature 和 top_p 参数控制采样的随机性。每次生成时模型从候选 token 中随机选择,因此输出会有差异。
如需更稳定的输出:
- 降低
temperature(例如设为 0.1) - 降低
top_p(例如设为 0.1) - 设置固定的
seed值
什么是 AI 幻觉?
指模型生成事实错误、缺乏依据或完全捏造的内容。这是所有大语言模型的固有特性,需要在应用层面进行事实校验。
Gemini 3 Pro 经常超时?
深度推理模型处理时间可能超过 30 秒。建议增大客户端的超时设置,或在对延迟敏感的场景中切换到 Gemini 2.0 等较轻量的模型。
Claude 输出问题
为什么 Claude 输出会提前截断?
通过 OpenAI 兼容接口调用 Claude 时,max_tokens 默认值为 4096。如果回复内容较长,会在达到上限时被截断。
解决方案: 在请求中显式设置更大的值:
response = client.chat.completions.create(
model="claude-sonnet-4-20250514",
messages=[{"role": "user", "content": "你的提示词"}],
max_tokens=8000 # 根据需要调整
)Token 消耗
简单对话为什么消耗大量 token?
使用第三方工具(如 Cline、Cursor、Claude Code 等 AI 编程助手)时,工具会自动附加上下文信息和系统提示词。这些隐藏内容同样计入 token 用量,可能导致实际消耗远超预期。
建议在 使用详情页 查看具体调用记录。
调用 GPT-4o 为什么日志显示 4o-mini 的消耗?
部分第三方工具会在主模型调用之外,额外使用轻量模型处理辅助任务(如上下文总结、搜索补全等),这些调用也会产生费用。
并发与限流
并发请求有限制吗?
AcceleAI 目前未设统一的并发限制。如果遇到并发相关问题,请联系客服协助排查。
API 端点
AcceleAI 提供哪些 API 端点?
| 端点 | 地址 | 用途 |
|---|---|---|
| OpenAI 兼容 | https://api.acceleai.cn/v1 | 适用于大部分模型,兼容 OpenAI SDK |
| Gemini 原生 | https://api.acceleai.cn/gemini | Gemini 系列模型原生接口 |
API Key 管理:https://api.acceleai.cn/keys