自 2022 年入学以来,我见证了大语言模型(LLM)的爆发式增长。从 ChatGPT 刚发布时的惊艳,到 DeepSeek 时刻让高性能 AI 触手可及。直到今天,AI 助手已经可以把我取代了,但是由于 OpenAi、Gemini、Grok 等模型厂商力大砖飞的研发模式,20 刀每月的订阅费用还是让学生党的我望而却步。哪怕是和人合租,也多少有点囊中羞涩。
经过一番探索,我发现通过第三方 API 平台按量付费 是目前拥有不错性价比的解决方案。
什么是第三方中转平台#
所谓第三方平台(通常称为“中转台”或“API 聚合商”),是指那些通过企业级账号接入各大模型厂商,再将接口二次封装提供给用户的服务商。
它们的核心优势在于:
- 聚合模型:一个账号即可调用 GPT、Claude、Gemini、DeepSeek 等几乎所有主流模型,无需分别注册。
- 按量计费:用多少 Token 扣多少钱,对于非全天候重度用户,轻量合理使用,每月成本通常远低于 20 刀。
- 网络与支付:解决了原版服务对网络环境和国外信用卡的严格限制,通常支持支付宝/微信充值,直连访问。
目前市面上较为知名的第三方平台包括 yunwu ↗、OpenRouter ↗ 等。其中,后者的价格相比大模型厂商没有任何优势,但是模型服务更稳定,延迟更低;前者则在价格上更有竞争力,且其服务在大多数时候处于够用的水平,不过偶尔会遇到访问高峰或者挂羊头卖狗肉的情况。
下面以我正在使用的 yunwu 为例,简单介绍一下使用步骤:
在访问 yunwu.ai ↗ 后,可以看到其首页和 最后三天 1¥ = 2$ 的公告信息但实则这条信息已经挂了几百天了。点击右上角的“注册/登录”按钮,创建一个账号并登录。
之后系统似乎会自动跳转到 控制台 界面,这里是主要的操作区域,包括充值、查看余额、生成 API Key 等功能。
在继续操作之前,我们了解一下第三方平台使用过程中的几个关键概念:
- API/令牌/token:指是调用不同接口的凭证,在创建后会自动生成一串以
sk-开头的字符串,称之为key/密钥,类似于sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx。 - token:token 还有另一层含义,指的是模型处理文本的基本单位,可以理解为“字节”或“词片段”,不同模型对 token 的定义略有差异。通常来说,1 个英文单词大约等于 1.3 个 token,1 个汉字大约等于 1 个 token。也是第三方平台计费的单位,通常见到的模型价格如
$0.001/1Mtokens 就是指每处理 100 万个 token 收费 0.001 美元。 - Base URL/API Host:指接口地址,客户端默认的通常是大模型服务商原来的 url,但如果使用的是第三方平台,则要做出修改: yunwu 的 url 是
https://yunwu.ai/,不同的模型厂商也会有不同的地址要求,比如有的会要求加上v1成为https://yunwu.ai/v1。
在接口文档中,对于令牌使用已经有了详细说明,为了方便起见,我这里给出简要步骤:
在控制台的“API 令牌管理”页面,点击“创建新 Key”按钮,输入名称方便自己区分,建议根据用途确定,如所用客户端、主要使用的模型等。分组用于区分调用来源,一开始试验性使用可以选择
自动选择/auto;经我个人后期使用发现,OpenAI 模型使用 纯AZ 分组,Google 模型使用 优质gemini 分组,效果已经足够好,倍率也不高。其他模型请见官网接口文档。其他设置保持默认即可,其中额度代表的是你允许该令牌使用的最大金额,建议设置一个合理的上限以防止误操作导致过度消费。点击确认后即可生成 Key。
生成令牌之后,可以在“我的令牌”页面看到刚创建的 Key,在密钥旁边有一个复制按钮,点击即可复制到剪贴板,后续在客户端配置时需要用到。但现在最重要的事情是—— 充值!
yunwu 的充值几乎没有优惠,直接选择金额,使用支付宝或微信支付即可,记得最好保持小量多次的充值习惯,在最开始阶段建议先充值 元人民币,记得 yunwu 刀的汇率是 1¥ = 2$,充值成功后即可在余额中看到对应的美元金额。
接下来你的令牌就是可用的状态,下一步要做的事情就是选择一个心仪的客户端。
选择大模型客户端#
如果把大模型比作一辆车,那么 API Key 就是启动发动机的钥匙,而客户端则是躯壳。一个好的客户端能让你更高效地与模型交互,提升使用体验。目前市面上有许多优秀的第三方客户端,如 lobehub ↗、Cherry Studio ↗ 等,而且这些客户端多数同时支持网页端和桌面端,满足不同使用场景的需求。
因为不愿意折腾 MCP,我更喜欢使用桌面端客户端。我入坑使用的原本是 Lobehub——不得不说界面确实很好看,但是前段时间 LobeHub 几乎放弃了其桌面端的用户,让我不得不得转入 Cherry Studio。Cherry Studio 的界面相对简洁,功能也很齐全,接下来以他为例,简单介绍一下配置过程:
一般大模型客户端的首页是对话界面,我们需要找到“设置”或“配置”选项,进入后找到 服务商/模型服务 选项卡片,找到所需的大模型服务商。
以 Gemini 为例,输入我们刚刚在 yunwu 创建的 API Key(记得不要选错了对应的分组),并将 Base URL 修改为 https://yunwu.ai/,点击“检测“测试是否正常,如果显示成功连接,则说明配置正确,可以开始使用了。这时候,如果模型列表中没有你想要的模型,可以点击“管理“,点击右上角的刷新获取最新模型。一般而言,可使用的模型需要满足既是第三方平台支持的,又是客户端支持的,才能出现在列表中。
使用大语言模型#
配置完成后,就可以愉快地使用大语言模型了!回到 Cherry Studio 的对话界面,点击添加助手即可创建一个新的对话助手,切换到话题则可新建话题:在对话框正上方有两个可以调整的选项,第一个是模型的选择,第二个是助手设置。模型选择建议根据任务需求选择合适的模型,例如,数学问题请使用带有推理能力和工具调用能力的模型,大规模任务请选择长文本模型。 另外,请注意甄别模型和其提供服务商,不同的服务商可能提供相同名称的模型,为了避免选到你并没有配置的模型造成不必要的麻烦,也为了减少模型选择的眼花缭乱程度,建议在刚刚提到的模型服务商选项中只 enable 你正在使用的模型服务商。
另一个可以调整的选项是助手设置,这里可以设置助手的名称、头像、系统提示词、温度、重复惩罚等。大多数参数在客户端中有基本介绍,只有系统提示词需要特别设置一下,由于我们是通过第三方平台调用模型,因此模型没有像官方客户端那样的预设提示词,自然也没有那么谄媚,为了让模型更好地理解你的个性化需求,建议定制一套符合你使用习惯的系统提示词模板,例如我在给数学学习助手设置的提示词是:
你是一位数学学习助手,对于分析、代数、概率论有深刻的理解和把握,擅长用清晰、逻辑严密但通俗易懂的方式讲解问题。
在回答题目时,请遵循以下要求:
1. 思路清晰:题目简单时,直接给出关键思路;
2. 言简意赅:
* 请务必尽量给出简洁、关键的回答,而不必拓展太多。
3. 输出形式:
* 确保公式易读、对齐良好。
* 请务必使用 Markdown LaTeX 语法来表示数学公式。具体来说,行内公式请使用 `$...$`,行间公式请使用 `$$\n...\n$$`。不要使用 `\(\)` 和 `\[\]` 的语法;注意公式内部无空格,两侧有空格,如`公式 $abc$ 成立`
例如:
行内公式:$a + b$
行间公式:
$$
a^2 + b^2 = c^2
$$
请按照这种格式回答所有涉及到数学公式的问题,积分要求使用 $\mathrm{d}$,转置要求使用 $^\top$,多行推导要求使用 $\begin{aligned}...\end{aligned}$,公式中非符号文本使用 $\text{}$。如果不必要,忽略之。
* 除非额外要求,你必须使用简体中文、简体中文标点符号(含括号)回答问题
* 对于涉及代码的变量、语句,请使用 `` 或者 ``` 这样的 md 行内/块级代码块语法包裹,提高可读性。
4. 额外要求:
* 避免直接复制未经验证的计算结果,必要时重新推算。
5. 示例
提问:{请解释 xx 定理}
回答:
{
- 关键结论:
- 几种常见证明(简述):
- 常用形式与推广:
- 应用要点:
}markdown除此以外,大模型客户端通常还支持知识库设置,避免文件多次上传和重复处理,提升效率。在使用知识库过程中,我推荐的嵌入模型(Embedding Model)是 text-embedding-3-large ,在 OpenAI 模型服务商那里添加这个模型之后即可在知识库使用。
使用建议#
通过第三方平台使用大语言模型,虽然在性价比上有明显优势,但也存在一些需要注意的地方:
- 响应时间:由于请求需要经过第三方平台转发,响应时间可能会稍长于直接使用官方接口,实测一般反应时间在 10s 左右;尤其在高峰期,可能需要自己切换不太拥挤的模型,一般而言,越菜的模型越不拥挤。
- 网络速度:确保你的网络连接稳定,这些第三方平台很多都不需要使用魔法,为了保证访问期间稳定,可以使用代理,或设置魔法工具保持直连,详情参见这篇 如何在使用魔法的同时保持直连 • ADreamLeft’s site ↗
- 成本控制:定期查看使用情况,避免意外的高额账单。yunwu 平台既支持查看每日明细,又支持查看逐笔使用记录。建议合理使用,对于某些对模型性能要求不高的任务,可以使用网页端或者 Deepseek 解决;此外,需要注意不同任务切换不同话题,避免上下文过长导致的额外 token 消耗和话题交叉污染,哪怕是同一个话题,也建议定期清理上下文或阶段性重开。
yunwu 也支持 codex、Claude 等配置,具体配置方法见文档。