使用 LiteLLM 自建 Claude Code 中转服务
最近 A 站大规模封号,导致之前的号商的中转大都歇菜了,另外加上国内用户在使用 Claude Code 时常常面临网络限制、账号注册门槛等难题。如何绕过这些障碍,稳定、高效地使用 Claude Code?答案是:自建 Claude Code 中转服务!
今天,我们将介绍如何利用开源工具 LiteLLM 自建 Claude Code 中转服务,不仅能规避官方限制,还能灵活调用多种语言模型(如 OpenAI、Vertex AI、xAI 等),实现成本优化和高效开发。无论你是个人开发者还是团队用户,这篇保姆级教程都能帮你快速上手。
LiteLLM 是什么
LiteLLM 是一个轻量级的开源代理工具,支持将 Claude Code 的 API 请求转换为多种语言模型的格式,兼容 Anthropic、OpenAI、Vertex AI 等主流模型。通过 LiteLLM,你可以:
- 绕过地域限制:无需海外账号,国内也能流畅使用 Claude Code
- 灵活切换模型:支持多种模型(如 Claude Sonnet、GPT-4o、Gemini),按需分配任务以优化成本
- 本地部署:数据隐私更有保障,适合对安全性要求高的项目
- 开源免费:完全开源,社区活跃,易于扩展和维护
实操
litellm 主要使用 python 编写,部署途径有两种,我这里方便操作使用镜像方式
- ghcr.io/berriai/litellm:main-latest
- 国内镜像 ccr.ccs.tencentyun.com/k7scn/litellm:main-latest
使用 compose 部署
- docker-compose.yaml
services:
litellm:
image: ccr.ccs.tencentyun.com/k7scn/litellm:main-latest
container_name: litellm
command: --config /app/config.yaml --detailed_debug
environment:
- OPENAI_API_KEY=sk-PpJVj1N7Btoken
- OPENAI_API_URL=https://api.example.ai
- LITELLM_MASTER_KEY=sk-nb666
volumes:
- '/data/litellm/config.yaml:/app/config.yaml'
ports:
- '4000:4000'
restart: always
本文示例使用的是某中转 claude 服务商
- /data/litellm/config.yaml
litellm_settings:
master_key: os.environ/LITELLM_MASTER_KEY
model_list:
# Responses API models
- model_name: claude-sonnet-4-20250514
litellm_params:
model: anthropic/claude-sonnet-4-20250514
api_key: os.environ/OPENAI_API_KEY
api_base: os.environ/OPENAI_API_URL
cache_control_injection_points:
- location: message
role: system
启动完成后,在环境里配置
export ANTHROPIC_BASE_URL=http://127.0.0.1:4000
export ANTHROPIC_AUTH_TOKEN=sk-nb666
claude --model claude-sonnet-4-20250514
# 或者在claude里使用/model设置
一分钱一分货,真是贵的可怕。
后续高级玩法
- 多模型协同:通过 LiteLLM 的路由功能,为不同任务分配不同模型。例如:
- 代码生成:Claude-3-5-Sonnet
- 语法检查:GPT-4o-mini
- 复杂架构分析:Gemini-1.5-Pro
在配置文件中添加更多模型和提供商
总结
通过 LiteLLM 自建 Claude Code 中转服务,你不仅能绕过地域和账号限制,还能灵活调用多种模型,兼顾性能与 成本。这种方式特别适合国内开发者,既省钱又高效!无论你是想快速生成代码、优化开发流程,还是探索 AI 编程的更多可能,这套方案都能让你事半功倍。
其他
本文主要参考两个文档
