Skip to content

Latest commit

 

History

History
697 lines (485 loc) · 33.7 KB

File metadata and controls

697 lines (485 loc) · 33.7 KB

ユーザーガイド

🌐 Languages: 🇺🇸 English | 🇧🇷 Português (Brasil) | 🇪🇸 Español | 🇫🇷 Français | 🇮🇹 Italiano | 🇷🇺 Русский | 🇨🇳 中文 (简体) | 🇩🇪 Deutsch | 🇮🇳 हिन्दी | 🇹🇭 ไทย | 🇺🇦 Українська | 🇸🇦 العربية | 🇯🇵 日本語 | 🇻🇳 Tiếng Việt | 🇧🇬 Български | 🇩🇰 Dansk | 🇫🇮 Suomi | 🇮🇱 עברית | 🇭🇺 Magyar | 🇮🇩 Bahasa Indonesia | 🇰🇷 한국어 | 🇲🇾 Bahasa Melayu | 🇳🇱 Nederlands | 🇳🇴 Norsk | 🇵🇹 Português (Portugal) | 🇷🇴 Română | 🇵🇱 Polski | 🇸🇰 Slovenčina | 🇸🇪 Svenska | 🇵🇭 Filipino

プロバイダーの構成、コンボの作成、CLI ツールの統合、OmniRoute の展開に関する完全なガイド。


目次


💰 価格の概要

階層 プロバイダー コスト クォータのリセット 最適な用途
💳 サブスクリプション クロード・コード (プロ) $20/月 5 時間 + 毎週 すでに購読済み
コーデックス (プラス/プロ) $20-200/月 5 時間 + 毎週 OpenAI ユーザー
ジェミニ CLI 無料 180K/月 + 1K/日 みんな!
GitHub コパイロット $10-19/月 月刊 GitHub ユーザー
🔑 API キー ディープシーク 使用ごとに支払い なし 安っぽい推論
グロク 使用ごとに支払い なし 超高速推論
xAI (グロック) 使用ごとに支払い なし Grok 4 の推論
ミストラル 使用ごとに支払い なし EU がホストするモデル
困惑 使用ごとに支払い なし 検索拡張
一緒にAI 使用ごとに支払い なし オープンソース モデル
花火AI 使用ごとに支払い なし 高速 FLUX 画像
大脳 使用ごとに支払い なし ウェーハスケールの速度
コヒア 使用ごとに支払い なし コマンド R+ RAG
NVIDIA NIM 使用ごとに支払い なし エンタープライズモデル
💰安い GLM-4.7 $0.6/100万 毎日午前 10 時 予算のバックアップ
ミニマックス M2.1 $0.2/100万 5時間ローリング 最も安いオプション
キミ K2 月額 9 ドルのフラット 1,000 万トークン/月 予測可能なコスト
🆓 無料 iFlow $0 無制限 8 モデルは無料
クウェン $0 無制限 3 モデルは無料
キロ $0 無制限 クロード・フリー

💡 プロのヒント: Gemini CLI (180,000 無料/月) + iFlow (無制限の無料) コンボ = コスト 0 ドルから始めましょう!


🎯 使用例

ケース 1: 「Claude Pro サブスクリプションを持っています」

問題: 大量のコーディング中にクォータが使用されずに期限切れになり、レート制限が発生する

Combo: "maximize-claude"
  1. cc/claude-opus-4-6        (use subscription fully)
  2. glm/glm-4.7               (cheap backup when quota out)
  3. if/kimi-k2-thinking       (free emergency fallback)

Monthly cost: $20 (subscription) + ~$5 (backup) = $25 total
vs. $20 + hitting limits = frustration

ケース 2: 「コストをゼロにしたい」

問題: サブスクリプションを購入する余裕がないため、信頼性の高い AI コーディングが必要です

Combo: "free-forever"
  1. gc/gemini-3-flash         (180K free/month)
  2. if/kimi-k2-thinking       (unlimited free)
  3. qw/qwen3-coder-plus       (unlimited free)

Monthly cost: $0
Quality: Production-ready models

ケース 3: 「24 時間年中無休でコーディングが必要で、中断はありません」

問題: 締め切りが迫っており、ダウンタイムを許すことができません

Combo: "always-on"
  1. cc/claude-opus-4-6        (best quality)
  2. cx/gpt-5.2-codex          (second subscription)
  3. glm/glm-4.7               (cheap, resets daily)
  4. minimax/MiniMax-M2.1      (cheapest, 5h reset)
  5. if/kimi-k2-thinking       (free unlimited)

Result: 5 layers of fallback = zero downtime
Monthly cost: $20-200 (subscriptions) + $10-20 (backup)

ケース 4: 「OpenClaw に無料の AI が欲しい」

問題: メッセージング アプリには AI アシスタントが必要ですが、完全に無料です

Combo: "openclaw-free"
  1. if/glm-4.7                (unlimited free)
  2. if/minimax-m2.1           (unlimited free)
  3. if/kimi-k2-thinking       (unlimited free)

Monthly cost: $0
Access via: WhatsApp, Telegram, Slack, Discord, iMessage, Signal...

📖 プロバイダーのセットアップ

🔐 サブスクリプションプロバイダー

クロード コード (Pro/Max)

Dashboard → Providers → Connect Claude Code
→ OAuth login → Auto token refresh
→ 5-hour + weekly quota tracking

Models:
  cc/claude-opus-4-6
  cc/claude-sonnet-4-5-20250929
  cc/claude-haiku-4-5-20251001

プロのヒント: 複雑なタスクには Opus を使用し、速度を求める場合は Sonnet を使用します。 OmniRoute はモデルごとの割り当てを追跡します。

OpenAI Codex (Plus/Pro)

Dashboard → Providers → Connect Codex
→ OAuth login (port 1455)
→ 5-hour + weekly reset

Models:
  cx/gpt-5.2-codex
  cx/gpt-5.1-codex-max

Gemini CLI (月額 180,000 が無料!)

Dashboard → Providers → Connect Gemini CLI
→ Google OAuth
→ 180K completions/month + 1K/day

Models:
  gc/gemini-3-flash-preview
  gc/gemini-2.5-pro

ベストバリュー: 膨大な無料枠!有料レベルの前にこれを使用してください。

GitHub コパイロット

Dashboard → Providers → Connect GitHub
→ OAuth via GitHub
→ Monthly reset (1st of month)

Models:
  gh/gpt-5
  gh/claude-4.5-sonnet
  gh/gemini-3-pro

💰 格安プロバイダー

GLM-4.7 (毎日リセット、0.6 ドル/100 万ドル)

  1. サインアップ: Zhipu AI 2.コーディングプランからAPIキーを取得
  2. ダッシュボード → API キーの追加: プロバイダー: glm、API キー: your-key

使用方法: glm/glm-4.7プロのヒント: コーディング プランでは、1/7 のコストで 3 倍のクォータを提供します。毎日午前 10 時にリセットされます。

MiniMax M2.1 (5 時間リセット、$0.20/1M)

  1. サインアップ: MiniMax
  2. APIキーの取得 → ダッシュボード → APIキーの追加

使用方法: minimax/MiniMax-M2.1プロのヒント: 長いコンテキスト (100 万トークン) の最も安価なオプション!

キミ K2 (月額一律 9 ドル)

  1. 購読: Moonshot AI
  2. APIキーの取得 → ダッシュボード → APIキーの追加

使用方法: kimi/kimi-latestプロのヒント: 1,000 万トークンの固定 $9/月 = 0.90 ドル/100 万の実効コスト!

🆓 無料プロバイダー

iFlow (8 つの無料モデル)

Dashboard → Connect iFlow → OAuth login → Unlimited usage

Models: if/kimi-k2-thinking, if/qwen3-coder-plus, if/glm-4.7, if/minimax-m2, if/deepseek-r1

Qwen (3 つの無料モデル)

Dashboard → Connect Qwen → Device code auth → Unlimited usage

Models: qw/qwen3-coder-plus, qw/qwen3-coder-flash

キロ (クロード フリー)

Dashboard → Connect Kiro → AWS Builder ID or Google/GitHub → Unlimited

Models: kr/claude-sonnet-4.5, kr/claude-haiku-4.5

🎨 コンボ

例 1: サブスクリプションを最大化 → 安価なバックアップ

Dashboard → Combos → Create New

Name: premium-coding
Models:
  1. cc/claude-opus-4-6 (Subscription primary)
  2. glm/glm-4.7 (Cheap backup, $0.6/1M)
  3. minimax/MiniMax-M2.1 (Cheapest fallback, $0.20/1M)

Use in CLI: premium-coding

例 2: 無料のみ (コストゼロ)

Name: free-combo
Models:
  1. gc/gemini-3-flash-preview (180K free/month)
  2. if/kimi-k2-thinking (unlimited)
  3. qw/qwen3-coder-plus (unlimited)

Cost: $0 forever!

🔧 CLI の統合

カーソル IDE

Settings → Models → Advanced:
  OpenAI API Base URL: http://localhost:20128/v1
  OpenAI API Key: [from omniroute dashboard]
  Model: cc/claude-opus-4-6

クロードコード

~/.claude/config.json を編集します:

{
  "anthropic_api_base": "http://localhost:20128/v1",
  "anthropic_api_key": "your-omniroute-api-key"
}

コーデックス CLI

export OPENAI_BASE_URL="http://localhost:20128"
export OPENAI_API_KEY="your-omniroute-api-key"
codex "your prompt"

オープンクロー

~/.openclaw/openclaw.json を編集します:

{
  "agents": {
    "defaults": {
      "model": { "primary": "omniroute/if/glm-4.7" }
    }
  },
  "models": {
    "providers": {
      "omniroute": {
        "baseUrl": "http://localhost:20128/v1",
        "apiKey": "your-omniroute-api-key",
        "api": "openai-completions",
        "models": [{ "id": "if/glm-4.7", "name": "glm-4.7" }]
      }
    }
  }
}

またはダッシュボードを使用します: CLI ツール → OpenClaw → 自動構成

クライン / 継続 / RooCode

Provider: OpenAI Compatible
Base URL: http://localhost:20128/v1
API Key: [from dashboard]
Model: cc/claude-opus-4-6

🚀 導入

VPS 導入

git clone https://github.com/diegosouzapw/OmniRoute.git
cd OmniRoute && npm install && npm run build

export JWT_SECRET="your-secure-secret-change-this"
export INITIAL_PASSWORD="your-password"
export DATA_DIR="/var/lib/omniroute"
export PORT="20128"
export HOSTNAME="0.0.0.0"
export NODE_ENV="production"
export NEXT_PUBLIC_BASE_URL="http://localhost:20128"
export API_KEY_SECRET="endpoint-proxy-api-key-secret"

npm run start
# Or: pm2 start npm --name omniroute -- start

ドッカー

# Build image (default = runner-cli with codex/claude/droid preinstalled)
docker build -t omniroute:cli .

# Portable mode (recommended)
docker run -d --name omniroute -p 20128:20128 --env-file ./.env -v omniroute-data:/app/data omniroute:cli

CLI バイナリを使用したホスト統合モードについては、メイン ドキュメントの Docker セクションを参照してください。

環境変数

変数 デフォルト 説明
JWT_SECRET omniroute-default-secret-change-me JWT 署名シークレット (本番環境での変更)
INITIAL_PASSWORD 123456 初回ログインパスワード
DATA_DIR ~/.omniroute データ ディレクトリ (データベース、使用状況、ログ)
PORT フレームワークのデフォルト サービスポート (例では 20128)
HOSTNAME フレームワークのデフォルト バインド ホスト (Docker のデフォルトは 0.0.0.0)
NODE_ENV 実行時のデフォルト デプロイ用に production を設定
BASE_URL http://localhost:20128 サーバー側の内部ベース URL
CLOUD_URL https://omniroute.dev クラウド同期エンドポイントのベース URL
API_KEY_SECRET endpoint-proxy-api-key-secret 生成された API キーの HMAC シークレット
REQUIRE_API_KEY false /v1/* にベアラー API キーを強制する
ENABLE_REQUEST_LOGS false リクエスト/レスポンスログを有効にする
AUTH_COOKIE_SECURE false Secure 認証 Cookie を強制する (HTTPS リバース プロキシの背後で)

環境変数の完全なリファレンスについては、README を参照してください。


📊 利用可能なモデル

利用可能なモデルをすべて表示

クロード コード (cc/) — Pro/Max: cc/claude-opus-4-6cc/claude-sonnet-4-5-20250929cc/claude-haiku-4-5-20251001

コーデックス (cx/) — プラス/プロ: cx/gpt-5.2-codexcx/gpt-5.1-codex-max

Gemini CLI (gc/) — 無料: gc/gemini-3-flash-previewgc/gemini-2.5-pro

GitHub コパイロット (gh/): gh/gpt-5gh/claude-4.5-sonnet

GLM (glm/) — $0.6/1M: glm/glm-4.7

MiniMax (minimax/) — $0.2/1M: minimax/MiniMax-M2.1

iFlow (if/) — 無料: if/kimi-k2-thinkingif/qwen3-coder-plusif/deepseek-r1

クウェン (qw/) — 無料: qw/qwen3-coder-plusqw/qwen3-coder-flash

キロ (kr/) — 無料: kr/claude-sonnet-4.5kr/claude-haiku-4.5

ディープシーク (ds/): ds/deepseek-chatds/deepseek-reasoner

Groq (groq/): groq/llama-3.3-70b-versatilegroq/llama-4-maverick-17b-128e-instruct

xAI (xai/): xai/grok-4xai/grok-4-0709-fast-reasoningxai/grok-code-mini

ミストラル (mistral/): mistral/mistral-large-2501mistral/codestral-2501

混乱 (pplx/): pplx/sonar-propplx/sonar

一緒に AI (together/): together/meta-llama/Llama-3.3-70B-Instruct-Turbo

花火 AI (fireworks/): fireworks/accounts/fireworks/models/deepseek-v3p1

セレブ (cerebras/): cerebras/llama-3.3-70b

ここにあります (cohere/): cohere/command-r-plus-08-2024

NVIDIA NIM (nvidia/): nvidia/nvidia/llama-3.3-70b-instruct


🧩 高度な機能

カスタムモデル

アプリの更新を待たずに、任意のモデル ID を任意のプロバイダーに追加します。

# Via API
curl -X POST http://localhost:20128/api/provider-models \
  -H "Content-Type: application/json" \
  -d '{"provider": "openai", "modelId": "gpt-4.5-preview", "modelName": "GPT-4.5 Preview"}'

# List: curl http://localhost:20128/api/provider-models?provider=openai
# Remove: curl -X DELETE "http://localhost:20128/api/provider-models?provider=openai&model=gpt-4.5-preview"

または、ダッシュボードを使用します: プロバイダー → [プロバイダー] → カスタム モデル

専用プロバイダー ルート

モデル検証を使用してリクエストを特定のプロバイダーに直接ルーティングします。

POST http://localhost:20128/v1/providers/openai/chat/completions
POST http://localhost:20128/v1/providers/openai/embeddings
POST http://localhost:20128/v1/providers/fireworks/images/generations

プロバイダーのプレフィックスが存在しない場合は、自動的に追加されます。モデルが一致しない場合は、400 が返されます。

ネットワークプロキシ構成

# Set global proxy
curl -X PUT http://localhost:20128/api/settings/proxy \
  -d '{"global": {"type":"http","host":"proxy.example.com","port":"8080"}}'

# Per-provider proxy
curl -X PUT http://localhost:20128/api/settings/proxy \
  -d '{"providers": {"openai": {"type":"socks5","host":"proxy.example.com","port":"1080"}}}'

# Test proxy
curl -X POST http://localhost:20128/api/settings/proxy/test \
  -d '{"proxy":{"type":"socks5","host":"proxy.example.com","port":"1080"}}'

優先順位: キー固有 → コンボ固有 → プロバイダー固有 → グローバル → 環境。

モデル カタログ API

curl http://localhost:20128/api/models/catalog

タイプ (chatembeddingimage) を持つプロバイダーごとにグループ化されたモデルを返します。

クラウド同期

  • デバイス間でプロバイダー、コンボ、設定を同期します
  • タイムアウト + フェイルファストによる自動バックグラウンド同期
  • 運用環境ではサーバー側の BASE_URL/CLOUD_URL を優先します

LLM ゲートウェイ インテリジェンス (フェーズ 9)

  • セマンティック キャッシュ — 非ストリーミング、温度=0 の応答を自動キャッシュします (X-OmniRoute-No-Cache: true によるバイパス)
  • リクエストのべき等性Idempotency-Key または X-Request-Id ヘッダーを介して 5 秒以内にリクエストの重複を排除します。
  • 進行状況の追跡X-OmniRoute-Progress: true ヘッダーを介した SSE event: progress イベントのオプトイン

翻訳者の遊び場

ダッシュボード → トランスレーター からアクセスします。 OmniRoute がプロバイダー間で API リクエストをどのように変換するかをデバッグして視覚化します。

モード 目的
遊び場 ソース/ターゲット形式を選択し、リクエストを貼り付けると、翻訳された出力が即座に表示されます。
チャット テスター プロキシ経由でライブ チャット メッセージを送信し、完全な要求/応答サイクルを検査します。
テストベンチ 複数の形式の組み合わせに対してバッチ テストを実行して、翻訳の正確さを検証します。
ライブモニター リクエストがプロキシを通過するときにリアルタイムの翻訳を監視します。

使用例:

  • 特定のクライアント/プロバイダーの組み合わせが失敗する理由をデバッグする
  • 思考タグ、ツール呼び出し、システム プロンプトが正しく翻訳されていることを確認します。
  • OpenAI、Claude、Gemini、および Responses API 形式間の形式の違いを比較します。

ルーティング戦略

[ダッシュボード] → [設定] → [ルーティング] から設定します。

| 戦略 | 説明 | | ---------------------------- | -------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------ | | 最初に記入してください | 優先順位に従ってアカウントを使用します。プライマリ アカウントは利用できなくなるまですべてのリクエストを処理します。 | | ラウンドロビン | 設定可能なスティッキー制限を使用して、すべてのアカウントを循環します (デフォルト: アカウントごとに 3 コール)。 | | P2C (2 つの選択肢の累乗) | ランダムな 2 つのアカウントを選択し、より健全なアカウントにルーティングします — 健康を意識しながら負荷のバランスをとります | | ランダム | Fisher-Yates shuffle | を使用してリクエストごとにアカウントをランダムに選択します。 | | 使用頻度が最も低い | 最も古い lastUsedAt タイムスタンプを持つアカウントにルーティングし、トラフィックを均等に分散します。 | | コストの最適化 | 最も低い優先順位の値を持つアカウントにルーティングし、最もコストの低いプロバイダー向けに最適化します。 |

ワイルドカード モデルのエイリアス

ワイルドカード パターンを作成してモデル名を再マッピングします。

Pattern: claude-sonnet-*     →  Target: cc/claude-sonnet-4-5-20250929
Pattern: gpt-*               →  Target: gh/gpt-5.1-codex

ワイルドカードは、* (任意の文字) および ? (単一文字) をサポートします。

フォールバック チェーン

すべてのリクエストに適用されるグローバル フォールバック チェーンを定義します。

Chain: production-fallback
  1. cc/claude-opus-4-6
  2. gh/gpt-5.1-codex
  3. glm/glm-4.7

レジリエンスとサーキットブレーカー

ダッシュボード → 設定 → レジリエンス から設定します。

OmniRoute は、次の 4 つのコンポーネントでプロバイダー レベルの復元力を実装します。

  1. プロバイダー プロファイル — 以下のプロバイダーごとの構成:

    • 失敗しきい値 (開くまでに何回失敗したか)
    • クールダウン期間
    • レート制限検出感度
    • 指数バックオフパラメータ
  2. 編集可能なレート制限 — ダッシュボードで構成可能なシステムレベルのデフォルト:

    • 1 分あたりのリクエスト数 (RPM) — アカウントごとの 1 分あたりの最大リクエスト数
    • リクエスト間の最小時間 — リクエスト間の最小ギャップ (ミリ秒単位)
    • 最大同時リクエスト — アカウントあたりの最大同時リクエスト
    • [編集] をクリックして変更し、保存 または キャンセル をクリックします。値は復元 API を介して保持されます。
  3. サーキット ブレーカー — プロバイダーごとに障害を追跡し、しきい値に達すると自動的に回線を開きます。

    • クローズ (正常) — リクエストは正常に流れます
    • OPEN — プロバイダーは失敗が繰り返された後、一時的にブロックされています
    • HALF_OPEN — プロバイダーが回復したかどうかをテストします
  4. ポリシーとロックされた識別子 — 強制ロック解除機能を備えたサーキット ブレーカーのステータスとロックされた識別子を表示します。

  5. レート制限の自動検出429 ヘッダーと Retry-After ヘッダーを監視して、プロバイダーのレート制限に達することを事前に回避します。

プロのヒント: プロバイダーが停止から回復したときに、すべてリセット ボタンを使用して、すべてのサーキット ブレーカーとクールダウンをクリアします。


データベースのエクスポート/インポート

[ダッシュボード] > [設定] > [システムとストレージ] でデータベースのバックアップを管理します。

アクション 説明
データベースのエクスポート 現在の SQLite データベースを .sqlite ファイルとしてダウンロードします。
すべてエクスポート (.tar.gz) データベース、設定、コンボ、プロバイダー接続 (認証情報なし)、API キー メタデータを含む完全なバックアップ アーカイブをダウンロードします。
データベースのインポート .sqlite ファイルをアップロードして、現在のデータベースを置き換えます。インポート前のバックアップが自動的に作成されます。
# API: Export database
curl -o backup.sqlite http://localhost:20128/api/db-backups/export

# API: Export all (full archive)
curl -o backup.tar.gz http://localhost:20128/api/db-backups/exportAll

# API: Import database
curl -X POST http://localhost:20128/api/db-backups/import \
  -F "file=@backup.sqlite"

インポートの検証: インポートされたファイルは、整合性 (SQLite プラグマ チェック)、必要なテーブル (provider_connectionsprovider_nodescombosapi_keys)、およびサイズ (最大 100MB) について検証されます。

使用例:

  • マシン間で OmniRoute を移行する
  • 災害復旧のために外部バックアップを作成する
  • チームメンバー間で設定を共有(すべてエクスポート→アーカイブを共有)

設定ダッシュボード

設定ページは 5 つのタブで構成されており、簡単にナビゲーションできます。

タブ 目次
セキュリティ ログイン/パスワード設定、IP アクセス制御、/models の API 認証、およびプロバイダーのブロック
ルーティング グローバル ルーティング戦略 (6 つのオプション)、ワイルドカード モデル エイリアス、フォールバック チェーン、コンボ デフォルト
回復力 プロバイダー プロファイル、編集可能なレート制限、サーキット ブレーカーのステータス、ポリシー、ロックされた識別子
AI 予算構成、グローバル システム プロンプト インジェクション、プロンプト キャッシュ統計を考える
上級 グローバル プロキシ構成 (HTTP/SOCKS5)

コストと予算の管理

[ダッシュボード] → [コスト] からアクセスします。

タブ 目的
予算 日次/週次/月次の予算とリアルタイムの追跡を使用して、API キーごとに支出制限を設定
価格 モデル価格エントリの表示と編集 - プロバイダーごとの 1K 入出力トークンあたりのコスト
# API: Set a budget
curl -X POST http://localhost:20128/api/usage/budget \
  -H "Content-Type: application/json" \
  -d '{"keyId": "key-123", "limit": 50.00, "period": "monthly"}'

# API: Get current budget status
curl http://localhost:20128/api/usage/budget

コスト追跡: すべてのリクエストはトークンの使用状況を記録し、価格表を使用してコストを計算します。 「ダッシュボード」→「使用状況」でプロバイダー、モデル、API キーごとの内訳を表示します。


音声文字起こし

OmniRoute は、OpenAI 互換エンドポイントを介した音声転写をサポートしています。

POST /v1/audio/transcriptions
Authorization: Bearer your-api-key
Content-Type: multipart/form-data

# Example with curl
curl -X POST http://localhost:20128/v1/audio/transcriptions \
  -H "Authorization: Bearer your-api-key" \
  -F "file=@audio.mp3" \
  -F "model=deepgram/nova-3"

利用可能なプロバイダー: Deepgram (deepgram/)、AssemblyAI (assemblyai/)。

サポートされている音声形式: mp3wavm4aflacoggwebm


コンボバランス戦略

ダッシュボード → コンボ → 作成/編集 → 戦略 でコンボごとのバランスを設定します。

戦略 説明
ラウンドロビン モデルを順番に回転します。
優先度 常に最初のモデルを試します。エラーの場合のみフォールバック
ランダム 各リクエストのコンボからランダムなモデルを選択します。
加重 モデルごとに割り当てられた重みに基づいて比例的にルーティングします。
使用頻度が最も低い 最近のリクエストが最も少ないモデルにルーティングします (コンボ メトリックを使用)
コストの最適化 利用可能な最も安価なモデルへのルート (価格表を使用)

グローバル コンボ デフォルトは、[ダッシュボード] → [設定] → [ルーティング] → [コンボ デフォルト] で設定できます。


健康ダッシュボード

「ダッシュボード」→「ヘルス」 からアクセスします。 6 枚のカードによるリアルタイムのシステム状態の概要:

カード それが示すもの
システムステータス 稼働時間、バージョン、メモリ使用量、データ ディレクトリ
プロバイダーの状態 プロバイダーごとのサーキット ブレーカーの状態 (クローズ/オープン/ハーフオープン)
レート制限 アカウントごとのアクティブなレート制限クールダウンと残り時間
アクティブなロックアウト ロックアウト ポリシーによって一時的にブロックされたプロバイダー
署名キャッシュ 重複排除キャッシュの統計 (アクティブなキー、ヒット率)
レイテンシ テレメトリ プロバイダーごとの p50/p95/p99 レイテンシの集計

プロのヒント: [ヘルス] ページは 10 秒ごとに自動更新されます。サーキット ブレーカー カードを使用して、どのプロバイダーで問題が発生しているかを特定します。