Claude API
国内直连
官方做后盾
走 Anthropic 官方 API,不是反代号。对话内容零存储,Prompt Caching 原生透传,一行 base_url 接入 Cursor / Dify / Coze。
# 只改一行 base_url,其余代码不动 from openai import OpenAI client = OpenAI( api_key="your-feiyuan-key", base_url="https://api.feiyuanapi.com/v1" ) resp = client.chat.completions.create( model="claude-opus-4-7", messages=[{ "role": "user", "content": "你好,飞源" }] ) # 也支持 Anthropic 原生 SDK → 享受 Prompt Cache
3 个同行
做不到的硬差距
国内 90% Claude 中转用反代号,飞源走完全不同的路——商业账户、零存储、Cache 原生透传,缺一不可。
Anthropic 官方 API
不是 chat2api,不是反代号。走付费商业账户直连 Anthropic 美国数据中心,不会因 Anthropic 风控被清理封号,流式输出 / 长输出 / 工具调用全兼容。
对话内容零存储
飞源后端只见 token 数 + 模型名 + 调用时间,看不到也无法看到具体对话内容。律所、投资机构、医疗 / 教育团队放心用,走商业账单合规可追溯。
Prompt Caching 原生透传
Anthropic SDK + cache_control 标记,固定 system prompt 第 2 次起按 10% 计费。Dify 工作流实测月省 89%,Cursor Agent 月省 88%。
Claude 全家桶
+ 主流 AI 模型
覆盖文本、代码、推理和图像生成场景,按稳定性逐步上线,后续持续扩展。
为稳定与合规
设计的底层
统一接口
遵循 OpenAI SDK 接入方式,减少迁移成本,不搞奇怪的新协议。同时支持 Anthropic 原生 /v1/messages,用 cache_control 参数可原生享受 Prompt Cache。
智能路由
后端根据模型、可用性、延迟和成本做分流,逐步支持个人号池与商用 API 分层,按稳定性和负载自动切换,对用户无感。
安全收口
前端、API、控制台分域承载,限流、风控、审计、余额管理、支付回调校验全链路补齐。走商业账单,合规可追溯,不是灰色运营。
按 Token 计费
越用越省
具体单价以上线控制台为准,当前为公测入口阶段,价格体系按模型成本和稳定性动态调整。
适合测试接入、个人工具、低频自动化。首充即赠额外奖励。
适合多模型调用、脚本、插件、工作流,开启 Cache 后实际成本大幅低于官方。
稳定业务量、更高并发、专属策略。律所 / 投资机构私聊详谈合规方案。
加入飞源
飞书开发者群
与 Cursor / Dify / Coze 重度用户交流 Cache 实战经验,第一时间获取新模型上线通知和内测福利。