MegaLLM 是一个 API 中转服务,支持主流模型 OpenAI、Anthropic、Google、Meta 等,以及包括国产千问、DeepSeek、GLM、K2 等。可以在 Claude Code、 Codex、OpenCode、Kilocode、RooCode,、Cline 上使用。@Appinn

省流:通过三种方式,获得一共 175刀:注册 75刀,邀请码50刀,discord 兑换码 50 刀
1. 注册就送 75 刀额度
2. 邀请码 REF-MXLX686I,可再赠送 50 刀
上面的邀请码是青小蛙的。
感谢 vlad 的推荐,也可以使用他的邀请码:REF-2UCZZDU0
3. 注册 discord 社区
在 #bot 频道,输入 /redeem 可获得一个兑换码,在 Redeem Coupon 页面兑换,可获得 50刀
一套下来,就有 175 刀额度了。

- 邀请一位用户,再送50刀
使用方式
| Agent 接口 | 格式 | 配置层级 | 最适合 |
|---|---|---|---|
| Claude Code | CLI + VSCode | JSON | 系统 + 项目 |
| Codex/Windsurf | CLI + 编辑器 | TOML | 仅系统 |
| OpenCode | CLI + 编辑器 | JSON | 系统 + 项目 |
| Kilocode | VSCode(很快支持 CLI) | VSCode 设置 | 用户 + 工作区 |
| RooCode | 独立应用 | JSON | 应用层级 |
| Cline | VSCode(很快支持 CLI) | VSCode 设置 | 用户 + 工作区 |
Base URL
以 Claude Code 为例
在终端直接运行: npx megallm@latest 就行,根据提示即可。但注意它会直接修改你的 ~/.claude/settings.json 文件。
所以,推荐使用 cc-switch 来管理你的多个渠道。
如图设置即可(看不到的区域默认):

支持的模型
主流模型: OpenAI、Anthropic、Google、Meta,以及包括国产千问、DeepSeek、GLM、K2 等。
明码标价,用多少算多少:

用起来了

原文:https://www.appinn.com/megallm/