🌐 Languages: 🇺🇸 English | 🇧🇷 Português (Brasil) | 🇪🇸 Español | 🇫🇷 Français | 🇮🇹 Italiano | 🇷🇺 Русский | 🇨🇳 中文 (简体) | 🇩🇪 Deutsch | 🇮🇳 हिन्दी | 🇹🇭 ไทย | 🇺🇦 Українська | 🇸🇦 العربية | 🇯🇵 日本語 | 🇻🇳 Tiếng Việt | 🇧🇬 Български | 🇩🇰 Dansk | 🇫🇮 Suomi | 🇮🇱 עברית | 🇭🇺 Magyar | 🇮🇩 Bahasa Indonesia | 🇰🇷 한국어 | 🇲🇾 Bahasa Melayu | 🇳🇱 Nederlands | 🇳🇴 Norsk | 🇵🇹 Português (Portugal) | 🇷🇴 Română | 🇵🇱 Polski | 🇸🇰 Slovenčina | 🇸🇪 Svenska | 🇵🇭 Filipino
プロバイダーの構成、コンボの作成、CLI ツールの統合、OmniRoute の展開に関する完全なガイド。
- Pricing at a Glance
- Use Cases
- Provider Setup
- CLI Integration
- Deployment
- Available Models
- Advanced Features
| 階層 | プロバイダー | コスト | クォータのリセット | 最適な用途 |
|---|---|---|---|---|
| 💳 サブスクリプション | クロード・コード (プロ) | $20/月 | 5 時間 + 毎週 | すでに購読済み |
| コーデックス (プラス/プロ) | $20-200/月 | 5 時間 + 毎週 | OpenAI ユーザー | |
| ジェミニ CLI | 無料 | 180K/月 + 1K/日 | みんな! | |
| GitHub コパイロット | $10-19/月 | 月刊 | GitHub ユーザー | |
| 🔑 API キー | ディープシーク | 使用ごとに支払い | なし | 安っぽい推論 |
| グロク | 使用ごとに支払い | なし | 超高速推論 | |
| xAI (グロック) | 使用ごとに支払い | なし | Grok 4 の推論 | |
| ミストラル | 使用ごとに支払い | なし | EU がホストするモデル | |
| 困惑 | 使用ごとに支払い | なし | 検索拡張 | |
| 一緒にAI | 使用ごとに支払い | なし | オープンソース モデル | |
| 花火AI | 使用ごとに支払い | なし | 高速 FLUX 画像 | |
| 大脳 | 使用ごとに支払い | なし | ウェーハスケールの速度 | |
| コヒア | 使用ごとに支払い | なし | コマンド R+ RAG | |
| NVIDIA NIM | 使用ごとに支払い | なし | エンタープライズモデル | |
| 💰安い | GLM-4.7 | $0.6/100万 | 毎日午前 10 時 | 予算のバックアップ |
| ミニマックス M2.1 | $0.2/100万 | 5時間ローリング | 最も安いオプション | |
| キミ K2 | 月額 9 ドルのフラット | 1,000 万トークン/月 | 予測可能なコスト | |
| 🆓 無料 | iFlow | $0 | 無制限 | 8 モデルは無料 |
| クウェン | $0 | 無制限 | 3 モデルは無料 | |
| キロ | $0 | 無制限 | クロード・フリー |
💡 プロのヒント: Gemini CLI (180,000 無料/月) + iFlow (無制限の無料) コンボ = コスト 0 ドルから始めましょう!
問題: 大量のコーディング中にクォータが使用されずに期限切れになり、レート制限が発生する
Combo: "maximize-claude"
1. cc/claude-opus-4-6 (use subscription fully)
2. glm/glm-4.7 (cheap backup when quota out)
3. if/kimi-k2-thinking (free emergency fallback)
Monthly cost: $20 (subscription) + ~$5 (backup) = $25 total
vs. $20 + hitting limits = frustration
問題: サブスクリプションを購入する余裕がないため、信頼性の高い AI コーディングが必要です
Combo: "free-forever"
1. gc/gemini-3-flash (180K free/month)
2. if/kimi-k2-thinking (unlimited free)
3. qw/qwen3-coder-plus (unlimited free)
Monthly cost: $0
Quality: Production-ready models
問題: 締め切りが迫っており、ダウンタイムを許すことができません
Combo: "always-on"
1. cc/claude-opus-4-6 (best quality)
2. cx/gpt-5.2-codex (second subscription)
3. glm/glm-4.7 (cheap, resets daily)
4. minimax/MiniMax-M2.1 (cheapest, 5h reset)
5. if/kimi-k2-thinking (free unlimited)
Result: 5 layers of fallback = zero downtime
Monthly cost: $20-200 (subscriptions) + $10-20 (backup)
問題: メッセージング アプリには AI アシスタントが必要ですが、完全に無料です
Combo: "openclaw-free"
1. if/glm-4.7 (unlimited free)
2. if/minimax-m2.1 (unlimited free)
3. if/kimi-k2-thinking (unlimited free)
Monthly cost: $0
Access via: WhatsApp, Telegram, Slack, Discord, iMessage, Signal...
Dashboard → Providers → Connect Claude Code
→ OAuth login → Auto token refresh
→ 5-hour + weekly quota tracking
Models:
cc/claude-opus-4-6
cc/claude-sonnet-4-5-20250929
cc/claude-haiku-4-5-20251001プロのヒント: 複雑なタスクには Opus を使用し、速度を求める場合は Sonnet を使用します。 OmniRoute はモデルごとの割り当てを追跡します。
Dashboard → Providers → Connect Codex
→ OAuth login (port 1455)
→ 5-hour + weekly reset
Models:
cx/gpt-5.2-codex
cx/gpt-5.1-codex-maxDashboard → Providers → Connect Gemini CLI
→ Google OAuth
→ 180K completions/month + 1K/day
Models:
gc/gemini-3-flash-preview
gc/gemini-2.5-proベストバリュー: 膨大な無料枠!有料レベルの前にこれを使用してください。
Dashboard → Providers → Connect GitHub
→ OAuth via GitHub
→ Monthly reset (1st of month)
Models:
gh/gpt-5
gh/claude-4.5-sonnet
gh/gemini-3-pro- サインアップ: Zhipu AI 2.コーディングプランからAPIキーを取得
- ダッシュボード → API キーの追加: プロバイダー:
glm、API キー:your-key
使用方法: glm/glm-4.7 — プロのヒント: コーディング プランでは、1/7 のコストで 3 倍のクォータを提供します。毎日午前 10 時にリセットされます。
- サインアップ: MiniMax
- APIキーの取得 → ダッシュボード → APIキーの追加
使用方法: minimax/MiniMax-M2.1 — プロのヒント: 長いコンテキスト (100 万トークン) の最も安価なオプション!
- 購読: Moonshot AI
- APIキーの取得 → ダッシュボード → APIキーの追加
使用方法: kimi/kimi-latest — プロのヒント: 1,000 万トークンの固定 $9/月 = 0.90 ドル/100 万の実効コスト!
Dashboard → Connect iFlow → OAuth login → Unlimited usage
Models: if/kimi-k2-thinking, if/qwen3-coder-plus, if/glm-4.7, if/minimax-m2, if/deepseek-r1Dashboard → Connect Qwen → Device code auth → Unlimited usage
Models: qw/qwen3-coder-plus, qw/qwen3-coder-flashDashboard → Connect Kiro → AWS Builder ID or Google/GitHub → Unlimited
Models: kr/claude-sonnet-4.5, kr/claude-haiku-4.5Dashboard → Combos → Create New
Name: premium-coding
Models:
1. cc/claude-opus-4-6 (Subscription primary)
2. glm/glm-4.7 (Cheap backup, $0.6/1M)
3. minimax/MiniMax-M2.1 (Cheapest fallback, $0.20/1M)
Use in CLI: premium-coding
Name: free-combo
Models:
1. gc/gemini-3-flash-preview (180K free/month)
2. if/kimi-k2-thinking (unlimited)
3. qw/qwen3-coder-plus (unlimited)
Cost: $0 forever!
Settings → Models → Advanced:
OpenAI API Base URL: http://localhost:20128/v1
OpenAI API Key: [from omniroute dashboard]
Model: cc/claude-opus-4-6
~/.claude/config.json を編集します:
{
"anthropic_api_base": "http://localhost:20128/v1",
"anthropic_api_key": "your-omniroute-api-key"
}export OPENAI_BASE_URL="http://localhost:20128"
export OPENAI_API_KEY="your-omniroute-api-key"
codex "your prompt"~/.openclaw/openclaw.json を編集します:
{
"agents": {
"defaults": {
"model": { "primary": "omniroute/if/glm-4.7" }
}
},
"models": {
"providers": {
"omniroute": {
"baseUrl": "http://localhost:20128/v1",
"apiKey": "your-omniroute-api-key",
"api": "openai-completions",
"models": [{ "id": "if/glm-4.7", "name": "glm-4.7" }]
}
}
}
}またはダッシュボードを使用します: CLI ツール → OpenClaw → 自動構成
Provider: OpenAI Compatible
Base URL: http://localhost:20128/v1
API Key: [from dashboard]
Model: cc/claude-opus-4-6
git clone https://github.com/diegosouzapw/OmniRoute.git
cd OmniRoute && npm install && npm run build
export JWT_SECRET="your-secure-secret-change-this"
export INITIAL_PASSWORD="your-password"
export DATA_DIR="/var/lib/omniroute"
export PORT="20128"
export HOSTNAME="0.0.0.0"
export NODE_ENV="production"
export NEXT_PUBLIC_BASE_URL="http://localhost:20128"
export API_KEY_SECRET="endpoint-proxy-api-key-secret"
npm run start
# Or: pm2 start npm --name omniroute -- start# Build image (default = runner-cli with codex/claude/droid preinstalled)
docker build -t omniroute:cli .
# Portable mode (recommended)
docker run -d --name omniroute -p 20128:20128 --env-file ./.env -v omniroute-data:/app/data omniroute:cliCLI バイナリを使用したホスト統合モードについては、メイン ドキュメントの Docker セクションを参照してください。
| 変数 | デフォルト | 説明 |
|---|---|---|
JWT_SECRET |
omniroute-default-secret-change-me |
JWT 署名シークレット (本番環境での変更) |
INITIAL_PASSWORD |
123456 |
初回ログインパスワード |
DATA_DIR |
~/.omniroute |
データ ディレクトリ (データベース、使用状況、ログ) |
PORT |
フレームワークのデフォルト | サービスポート (例では 20128) |
HOSTNAME |
フレームワークのデフォルト | バインド ホスト (Docker のデフォルトは 0.0.0.0) |
NODE_ENV |
実行時のデフォルト | デプロイ用に production を設定 |
BASE_URL |
http://localhost:20128 |
サーバー側の内部ベース URL |
CLOUD_URL |
https://omniroute.dev |
クラウド同期エンドポイントのベース URL |
API_KEY_SECRET |
endpoint-proxy-api-key-secret |
生成された API キーの HMAC シークレット |
REQUIRE_API_KEY |
false |
/v1/* にベアラー API キーを強制する |
ENABLE_REQUEST_LOGS |
false |
リクエスト/レスポンスログを有効にする |
AUTH_COOKIE_SECURE |
false |
Secure 認証 Cookie を強制する (HTTPS リバース プロキシの背後で) |
環境変数の完全なリファレンスについては、README を参照してください。
利用可能なモデルをすべて表示
クロード コード (cc/) — Pro/Max: cc/claude-opus-4-6、cc/claude-sonnet-4-5-20250929、cc/claude-haiku-4-5-20251001
コーデックス (cx/) — プラス/プロ: cx/gpt-5.2-codex、cx/gpt-5.1-codex-max
Gemini CLI (gc/) — 無料: gc/gemini-3-flash-preview、gc/gemini-2.5-pro
GitHub コパイロット (gh/): gh/gpt-5、gh/claude-4.5-sonnet
GLM (glm/) — $0.6/1M: glm/glm-4.7
MiniMax (minimax/) — $0.2/1M: minimax/MiniMax-M2.1
iFlow (if/) — 無料: if/kimi-k2-thinking、if/qwen3-coder-plus、if/deepseek-r1
クウェン (qw/) — 無料: qw/qwen3-coder-plus、qw/qwen3-coder-flash
キロ (kr/) — 無料: kr/claude-sonnet-4.5、kr/claude-haiku-4.5
ディープシーク (ds/): ds/deepseek-chat、ds/deepseek-reasoner
Groq (groq/): groq/llama-3.3-70b-versatile、groq/llama-4-maverick-17b-128e-instruct
xAI (xai/): xai/grok-4、xai/grok-4-0709-fast-reasoning、xai/grok-code-mini
ミストラル (mistral/): mistral/mistral-large-2501、mistral/codestral-2501
混乱 (pplx/): pplx/sonar-pro、pplx/sonar
一緒に AI (together/): together/meta-llama/Llama-3.3-70B-Instruct-Turbo
花火 AI (fireworks/): fireworks/accounts/fireworks/models/deepseek-v3p1
セレブ (cerebras/): cerebras/llama-3.3-70b
ここにあります (cohere/): cohere/command-r-plus-08-2024
NVIDIA NIM (nvidia/): nvidia/nvidia/llama-3.3-70b-instruct
アプリの更新を待たずに、任意のモデル ID を任意のプロバイダーに追加します。
# Via API
curl -X POST http://localhost:20128/api/provider-models \
-H "Content-Type: application/json" \
-d '{"provider": "openai", "modelId": "gpt-4.5-preview", "modelName": "GPT-4.5 Preview"}'
# List: curl http://localhost:20128/api/provider-models?provider=openai
# Remove: curl -X DELETE "http://localhost:20128/api/provider-models?provider=openai&model=gpt-4.5-preview"または、ダッシュボードを使用します: プロバイダー → [プロバイダー] → カスタム モデル。
モデル検証を使用してリクエストを特定のプロバイダーに直接ルーティングします。
POST http://localhost:20128/v1/providers/openai/chat/completions
POST http://localhost:20128/v1/providers/openai/embeddings
POST http://localhost:20128/v1/providers/fireworks/images/generationsプロバイダーのプレフィックスが存在しない場合は、自動的に追加されます。モデルが一致しない場合は、400 が返されます。
# Set global proxy
curl -X PUT http://localhost:20128/api/settings/proxy \
-d '{"global": {"type":"http","host":"proxy.example.com","port":"8080"}}'
# Per-provider proxy
curl -X PUT http://localhost:20128/api/settings/proxy \
-d '{"providers": {"openai": {"type":"socks5","host":"proxy.example.com","port":"1080"}}}'
# Test proxy
curl -X POST http://localhost:20128/api/settings/proxy/test \
-d '{"proxy":{"type":"socks5","host":"proxy.example.com","port":"1080"}}'優先順位: キー固有 → コンボ固有 → プロバイダー固有 → グローバル → 環境。
curl http://localhost:20128/api/models/catalogタイプ (chat、embedding、image) を持つプロバイダーごとにグループ化されたモデルを返します。
- デバイス間でプロバイダー、コンボ、設定を同期します
- タイムアウト + フェイルファストによる自動バックグラウンド同期
- 運用環境ではサーバー側の
BASE_URL/CLOUD_URLを優先します
- セマンティック キャッシュ — 非ストリーミング、温度=0 の応答を自動キャッシュします (
X-OmniRoute-No-Cache: trueによるバイパス) - リクエストのべき等性 —
Idempotency-KeyまたはX-Request-Idヘッダーを介して 5 秒以内にリクエストの重複を排除します。 - 進行状況の追跡 —
X-OmniRoute-Progress: trueヘッダーを介した SSEevent: progressイベントのオプトイン
ダッシュボード → トランスレーター からアクセスします。 OmniRoute がプロバイダー間で API リクエストをどのように変換するかをデバッグして視覚化します。
| モード | 目的 |
|---|---|
| 遊び場 | ソース/ターゲット形式を選択し、リクエストを貼り付けると、翻訳された出力が即座に表示されます。 |
| チャット テスター | プロキシ経由でライブ チャット メッセージを送信し、完全な要求/応答サイクルを検査します。 |
| テストベンチ | 複数の形式の組み合わせに対してバッチ テストを実行して、翻訳の正確さを検証します。 |
| ライブモニター | リクエストがプロキシを通過するときにリアルタイムの翻訳を監視します。 |
使用例:
- 特定のクライアント/プロバイダーの組み合わせが失敗する理由をデバッグする
- 思考タグ、ツール呼び出し、システム プロンプトが正しく翻訳されていることを確認します。
- OpenAI、Claude、Gemini、および Responses API 形式間の形式の違いを比較します。
[ダッシュボード] → [設定] → [ルーティング] から設定します。
| 戦略 | 説明 |
| ---------------------------- | -------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------ |
| 最初に記入してください | 優先順位に従ってアカウントを使用します。プライマリ アカウントは利用できなくなるまですべてのリクエストを処理します。 |
| ラウンドロビン | 設定可能なスティッキー制限を使用して、すべてのアカウントを循環します (デフォルト: アカウントごとに 3 コール)。 |
| P2C (2 つの選択肢の累乗) | ランダムな 2 つのアカウントを選択し、より健全なアカウントにルーティングします — 健康を意識しながら負荷のバランスをとります |
| ランダム | Fisher-Yates shuffle | を使用してリクエストごとにアカウントをランダムに選択します。 |
| 使用頻度が最も低い | 最も古い lastUsedAt タイムスタンプを持つアカウントにルーティングし、トラフィックを均等に分散します。 |
| コストの最適化 | 最も低い優先順位の値を持つアカウントにルーティングし、最もコストの低いプロバイダー向けに最適化します。 |
ワイルドカード パターンを作成してモデル名を再マッピングします。
Pattern: claude-sonnet-* → Target: cc/claude-sonnet-4-5-20250929
Pattern: gpt-* → Target: gh/gpt-5.1-codex
ワイルドカードは、* (任意の文字) および ? (単一文字) をサポートします。
すべてのリクエストに適用されるグローバル フォールバック チェーンを定義します。
Chain: production-fallback
1. cc/claude-opus-4-6
2. gh/gpt-5.1-codex
3. glm/glm-4.7
ダッシュボード → 設定 → レジリエンス から設定します。
OmniRoute は、次の 4 つのコンポーネントでプロバイダー レベルの復元力を実装します。
-
プロバイダー プロファイル — 以下のプロバイダーごとの構成:
- 失敗しきい値 (開くまでに何回失敗したか)
- クールダウン期間
- レート制限検出感度
- 指数バックオフパラメータ
-
編集可能なレート制限 — ダッシュボードで構成可能なシステムレベルのデフォルト:
- 1 分あたりのリクエスト数 (RPM) — アカウントごとの 1 分あたりの最大リクエスト数
- リクエスト間の最小時間 — リクエスト間の最小ギャップ (ミリ秒単位)
- 最大同時リクエスト — アカウントあたりの最大同時リクエスト
- [編集] をクリックして変更し、保存 または キャンセル をクリックします。値は復元 API を介して保持されます。
-
サーキット ブレーカー — プロバイダーごとに障害を追跡し、しきい値に達すると自動的に回線を開きます。
- クローズ (正常) — リクエストは正常に流れます
- OPEN — プロバイダーは失敗が繰り返された後、一時的にブロックされています
- HALF_OPEN — プロバイダーが回復したかどうかをテストします
-
ポリシーとロックされた識別子 — 強制ロック解除機能を備えたサーキット ブレーカーのステータスとロックされた識別子を表示します。
-
レート制限の自動検出 —
429ヘッダーとRetry-Afterヘッダーを監視して、プロバイダーのレート制限に達することを事前に回避します。
プロのヒント: プロバイダーが停止から回復したときに、すべてリセット ボタンを使用して、すべてのサーキット ブレーカーとクールダウンをクリアします。
[ダッシュボード] > [設定] > [システムとストレージ] でデータベースのバックアップを管理します。
| アクション | 説明 |
|---|---|
| データベースのエクスポート | 現在の SQLite データベースを .sqlite ファイルとしてダウンロードします。 |
| すべてエクスポート (.tar.gz) | データベース、設定、コンボ、プロバイダー接続 (認証情報なし)、API キー メタデータを含む完全なバックアップ アーカイブをダウンロードします。 |
| データベースのインポート | .sqlite ファイルをアップロードして、現在のデータベースを置き換えます。インポート前のバックアップが自動的に作成されます。 |
# API: Export database
curl -o backup.sqlite http://localhost:20128/api/db-backups/export
# API: Export all (full archive)
curl -o backup.tar.gz http://localhost:20128/api/db-backups/exportAll
# API: Import database
curl -X POST http://localhost:20128/api/db-backups/import \
-F "file=@backup.sqlite"インポートの検証: インポートされたファイルは、整合性 (SQLite プラグマ チェック)、必要なテーブル (provider_connections、provider_nodes、combos、api_keys)、およびサイズ (最大 100MB) について検証されます。
使用例:
- マシン間で OmniRoute を移行する
- 災害復旧のために外部バックアップを作成する
- チームメンバー間で設定を共有(すべてエクスポート→アーカイブを共有)
設定ページは 5 つのタブで構成されており、簡単にナビゲーションできます。
| タブ | 目次 |
|---|---|
| セキュリティ | ログイン/パスワード設定、IP アクセス制御、/models の API 認証、およびプロバイダーのブロック |
| ルーティング | グローバル ルーティング戦略 (6 つのオプション)、ワイルドカード モデル エイリアス、フォールバック チェーン、コンボ デフォルト |
| 回復力 | プロバイダー プロファイル、編集可能なレート制限、サーキット ブレーカーのステータス、ポリシー、ロックされた識別子 |
| AI | 予算構成、グローバル システム プロンプト インジェクション、プロンプト キャッシュ統計を考える |
| 上級 | グローバル プロキシ構成 (HTTP/SOCKS5) |
[ダッシュボード] → [コスト] からアクセスします。
| タブ | 目的 |
|---|---|
| 予算 | 日次/週次/月次の予算とリアルタイムの追跡を使用して、API キーごとに支出制限を設定 |
| 価格 | モデル価格エントリの表示と編集 - プロバイダーごとの 1K 入出力トークンあたりのコスト |
# API: Set a budget
curl -X POST http://localhost:20128/api/usage/budget \
-H "Content-Type: application/json" \
-d '{"keyId": "key-123", "limit": 50.00, "period": "monthly"}'
# API: Get current budget status
curl http://localhost:20128/api/usage/budgetコスト追跡: すべてのリクエストはトークンの使用状況を記録し、価格表を使用してコストを計算します。 「ダッシュボード」→「使用状況」でプロバイダー、モデル、API キーごとの内訳を表示します。
OmniRoute は、OpenAI 互換エンドポイントを介した音声転写をサポートしています。
POST /v1/audio/transcriptions
Authorization: Bearer your-api-key
Content-Type: multipart/form-data
# Example with curl
curl -X POST http://localhost:20128/v1/audio/transcriptions \
-H "Authorization: Bearer your-api-key" \
-F "file=@audio.mp3" \
-F "model=deepgram/nova-3"利用可能なプロバイダー: Deepgram (deepgram/)、AssemblyAI (assemblyai/)。
サポートされている音声形式: mp3、wav、m4a、flac、ogg、webm。
ダッシュボード → コンボ → 作成/編集 → 戦略 でコンボごとのバランスを設定します。
| 戦略 | 説明 |
|---|---|
| ラウンドロビン | モデルを順番に回転します。 |
| 優先度 | 常に最初のモデルを試します。エラーの場合のみフォールバック |
| ランダム | 各リクエストのコンボからランダムなモデルを選択します。 |
| 加重 | モデルごとに割り当てられた重みに基づいて比例的にルーティングします。 |
| 使用頻度が最も低い | 最近のリクエストが最も少ないモデルにルーティングします (コンボ メトリックを使用) |
| コストの最適化 | 利用可能な最も安価なモデルへのルート (価格表を使用) |
グローバル コンボ デフォルトは、[ダッシュボード] → [設定] → [ルーティング] → [コンボ デフォルト] で設定できます。
「ダッシュボード」→「ヘルス」 からアクセスします。 6 枚のカードによるリアルタイムのシステム状態の概要:
| カード | それが示すもの |
|---|---|
| システムステータス | 稼働時間、バージョン、メモリ使用量、データ ディレクトリ |
| プロバイダーの状態 | プロバイダーごとのサーキット ブレーカーの状態 (クローズ/オープン/ハーフオープン) |
| レート制限 | アカウントごとのアクティブなレート制限クールダウンと残り時間 |
| アクティブなロックアウト | ロックアウト ポリシーによって一時的にブロックされたプロバイダー |
| 署名キャッシュ | 重複排除キャッシュの統計 (アクティブなキー、ヒット率) |
| レイテンシ テレメトリ | プロバイダーごとの p50/p95/p99 レイテンシの集計 |
プロのヒント: [ヘルス] ページは 10 秒ごとに自動更新されます。サーキット ブレーカー カードを使用して、どのプロバイダーで問題が発生しているかを特定します。