Direct API
标准 REST/gRPC 端点可直接替换,无需修改业务代码。
"ng-code-keyword">const client = "ng-code-keyword">new OpenAI({
baseURL: 'https://gateway.linglu.ai/v1',
apiKey: "ng-code-property">process.env.LINGLU_API_KEY
});
灵路通过单一高可用路由层,在 API、Cursor 和 Claude Code 之间统一调度、优化并治理你的 AI 模型请求。
只需配置一次模型偏好、速率限制和故障回退策略,灵路就会在整个开发接入面上统一转换并应用这些规则。
标准 REST/gRPC 端点可直接替换,无需修改业务代码。
在 Cursor 中将自定义 OpenAI 兼容端点直接指向你的灵路实例。
为终端 AI 代理统一管理密钥,并在命令行层面追踪成本。
根据模型延迟、Token 成本或地理区域自动路由请求,以实现最佳性能表现。
零停机。如果某个供应商发生故障或触发限流,请求会立刻级联到已配置的备选服务。
语义缓存与提示压缩会在请求进入高成本 LLM 提供商前自动减少 Token 消耗。
为开发者或特定项目签发临时、预算受限的子密钥,并可即时撤销权限。
| 密钥 ID | 归属方 | 使用量 |
|---|---|---|
| ng_sk_94a... | 前端团队 | $42 / $100 |
| ng_sk_12f... | 数据管道 | $890 / $1000 |
接入灵路就像把人工接线板升级成光纤网络。我们在 API 调用和开发者 IDE 上获得了统一可视性,立刻识别出 30% 的无效 Token 支出。
光是自动故障切换就足以证明这次集成值得。上周主供应商宕机时,灵路无缝把流量切到了备用模型,用户侧零报错。
5 分钟内即可部署统一 AI 路由层。开发者层级实例无需信用卡。
立即开始