Non smettere mai di programmare. Routing intelligente verso modelli IA GRATUITI e economici con fallback automatico.
Il tuo proxy API universale — un endpoint, 36+ provider, zero downtime.
Chat Completions • Embeddings • Generazione Immagini • Audio • Reranking • 100% TypeScript
Connetti qualsiasi IDE o strumento CLI con IA tramite OmniRoute — gateway API gratuito per programmazione illimitata.
|
OpenClaw ⭐ 205K |
NanoBot ⭐ 20.9K |
PicoClaw ⭐ 14.6K |
ZeroClaw ⭐ 9.9K |
IronClaw ⭐ 2.1K |
|
OpenCode ⭐ 106K |
Codex CLI ⭐ 60.8K |
Claude Code ⭐ 67.3K |
Gemini CLI ⭐ 94.7K |
Kilo Code ⭐ 15.5K |
📡 Tutti gli agenti si connettono via http://localhost:20128/v1 o http://cloud.omniroute.online/v1 — una configurazione, modelli e quota illimitati
🌐 Sito Web • 🚀 Avvio Rapido • 💡 Funzionalità • 📖 Docs • 💰 Prezzi
🌐 Available in: 🇺🇸 English | 🇧🇷 Português (Brasil) | 🇪🇸 Español | 🇫🇷 Français | 🇮🇹 Italiano | 🇷🇺 Русский | 🇨🇳 中文 (简体) | 🇩🇪 Deutsch | 🇮🇳 हिन्दी | 🇹🇭 ไทย | 🇺🇦 Українська | 🇸🇦 العربية | 🇯🇵 日本語 | 🇻🇳 Tiếng Việt | 🇧🇬 Български | 🇩🇰 Dansk | 🇫🇮 Suomi | 🇮🇱 עברית | 🇭🇺 Magyar | 🇮🇩 Bahasa Indonesia | 🇰🇷 한국어 | 🇲🇾 Bahasa Melayu | 🇳🇱 Nederlands | 🇳🇴 Norsk | 🇵🇹 Português (Portugal) | 🇷🇴 Română | 🇵🇱 Polski | 🇸🇰 Slovenčina | 🇸🇪 Svenska | 🇵🇭 Filipino
Smetti di sprecare soldi e di sbattere contro i limiti:
La quota dell'abbonamento scade inutilizzata ogni mese
I limiti di rate ti fermano nel mezzo della programmazione
API costose ($20-50/mese per provider)
Cambio manuale tra provider
OmniRoute risolve tutto questo:
- ✅ Massimizza gli abbonamenti — Traccia le quote, usa tutto prima del reset
- ✅ Fallback automatico — Abbonamento → API Key → Economico → Gratuito, zero downtime
- ✅ Multi-account — Round-robin tra account per provider
- ✅ Universale — Funziona con Claude Code, Codex, Gemini CLI, Cursor, Cline, OpenClaw, qualsiasi strumento CLI
┌─────────────┐
│ Il tuo CLI │ (Claude Code, Codex, Gemini CLI, OpenClaw, Cursor, Cline...)
│ Tool │
└──────┬──────┘
│ http://localhost:20128/v1
↓
┌─────────────────────────────────────────┐
│ OmniRoute (Router Intelligente) │
│ • Traduzione formato (OpenAI ↔ Claude) │
│ • Tracciamento quote + Embeddings + Immagini │
│ • Rinnovo automatico dei token │
└──────┬──────────────────────────────────┘
│
├─→ [Tier 1: ABBONAMENTO] Claude Code, Codex, Gemini CLI
│ ↓ quota esaurita
├─→ [Tier 2: API KEY] DeepSeek, Groq, xAI, Mistral, NVIDIA NIM, ecc.
│ ↓ limite budget
├─→ [Tier 3: ECONOMICO] GLM ($0.6/1M), MiniMax ($0.2/1M)
│ ↓ limite budget
└─→ [Tier 4: GRATUITO] iFlow, Qwen, Kiro (illimitato)
Risultato: Non smettere mai di programmare, costo minimo
Every developer using AI tools faces these problems daily. OmniRoute was built to solve them all — from cost overruns to regional blocks, from broken OAuth flows to zero observability.
💸 1. "I pay for an expensive subscription but still get interrupted by limits"
Developers pay $20–200/month for Claude Pro, Codex Pro, or GitHub Copilot. Even paying, quota has a ceiling — 5h of usage, weekly limits, or per-minute rate limits. Mid-coding session, the provider stops responding and the developer loses flow and productivity.
How OmniRoute solves it:
- Smart 4-Tier Fallback — If subscription quota runs out, automatically redirects to API Key → Cheap → Free with zero manual intervention
- Real-Time Quota Tracking — Shows token consumption in real-time with reset countdown (5h, daily, weekly)
- Multi-Account Support — Multiple accounts per provider with auto round-robin — when one runs out, switches to the next
- Custom Combos — Customizable fallback chains with 6 balancing strategies (fill-first, round-robin, P2C, random, least-used, cost-optimized)
- Codex Business Quotas — Business/Team workspace quota monitoring directly in the dashboard
🔌 2. "I need to use multiple providers but each has a different API"
OpenAI uses one format, Claude (Anthropic) uses another, Gemini yet another. If a dev wants to test models from different providers or fallback between them, they need to reconfigure SDKs, change endpoints, deal with incompatible formats. Custom providers (FriendLI, NIM) have non-standard model endpoints.
How OmniRoute solves it:
- Unified Endpoint — A single
http://localhost:20128/v1serves as proxy for all 36+ providers - Format Translation — Automatic and transparent: OpenAI ↔ Claude ↔ Gemini ↔ Responses API
- Response Sanitization — Strips non-standard fields (
x_groq,usage_breakdown,service_tier) that break OpenAI SDK v1.83+ - Role Normalization — Converts
developer→systemfor non-OpenAI providers;system→userfor GLM/ERNIE - Think Tag Extraction — Extracts
<think>blocks from models like DeepSeek R1 into standardizedreasoning_content - Structured Output for Gemini —
json_schema→responseMimeType/responseSchemaautomatic conversion streamdefaults tofalse— Aligns with OpenAI spec, avoiding unexpected SSE in Python/Rust/Go SDKs
🌐 3. "My AI provider blocks my region/country"
Providers like OpenAI/Codex block access from certain geographic regions. Users get errors like unsupported_country_region_territory during OAuth and API connections. This is especially frustrating for developers from developing countries.
How OmniRoute solves it:
- 3-Level Proxy Config — Configurable proxy at 3 levels: global (all traffic), per-provider (one provider only), and per-connection/key
- Color-Coded Proxy Badges — Visual indicators: 🟢 global proxy, 🟡 provider proxy, 🔵 connection proxy, always showing the IP
- OAuth Token Exchange Through Proxy — OAuth flow also goes through the proxy, solving
unsupported_country_region_territory - Connection Tests via Proxy — Connection tests use the configured proxy (no more direct bypass)
- SOCKS5 Support — Full SOCKS5 proxy support for outbound routing
- TLS Fingerprint Spoofing — Browser-like TLS fingerprint via
wreq-jsto bypass bot detection
🆓 4. "I want to use AI for coding but I have no money"
Not everyone can pay $20–200/month for AI subscriptions. Students, devs from emerging countries, hobbyists, and freelancers need access to quality models at zero cost.
How OmniRoute solves it:
- Free Tier Providers Built-in — Native support for 100% free providers: iFlow (8 unlimited models), Qwen (3 unlimited models), Kiro (Claude for free), Gemini CLI (180K/month free)
- Free-Only Combos — Chain
gc/gemini-3-flash → if/kimi-k2-thinking → qw/qwen3-coder-plus= $0/month with zero downtime - NVIDIA NIM Free Credits — 1000 free credits integrated
- Cost Optimized Strategy — Routing strategy that automatically chooses the cheapest available provider
🔒 5. "I need to protect my AI gateway from unauthorized access"
When exposing an AI gateway to the network (LAN, VPS, Docker), anyone with the address can consume the developer's tokens/quota. Without protection, APIs are vulnerable to misuse, prompt injection, and abuse.
How OmniRoute solves it:
- API Key Management — Generation, rotation, and scoping per provider with a dedicated
/dashboard/api-managerpage - Model-Level Permissions — Restrict API keys to specific models (
openai/*, wildcard patterns), with Allow All/Restrict toggle - API Endpoint Protection — Require a key for
/v1/modelsand block specific providers from the listing - Auth Guard + CSRF Protection — All dashboard routes protected with
withAuthmiddleware + CSRF tokens - Rate Limiter — Per-IP rate limiting with configurable windows
- IP Filtering — Allowlist/blocklist for access control
- Prompt Injection Guard — Sanitization against malicious prompt patterns
- AES-256-GCM Encryption — Credentials encrypted at rest
🛑 6. "My provider went down and I lost my coding flow"
AI providers can become unstable, return 5xx errors, or hit temporary rate limits. If a dev depends on a single provider, they're interrupted. Without circuit breakers, repeated retries can crash the application.
How OmniRoute solves it:
- Circuit Breaker per-provider — Auto-open/close with configurable thresholds and cooldown (Closed/Open/Half-Open)
- Exponential Backoff — Progressive retry delays
- Anti-Thundering Herd — Mutex + semaphore protection against concurrent retry storms
- Combo Fallback Chains — If the primary provider fails, automatically falls through the chain with no intervention
- Combo Circuit Breaker — Auto-disables failing providers within a combo chain
- Health Dashboard — Uptime monitoring, circuit breaker states, lockouts, cache stats, p50/p95/p99 latency
🔧 7. "Configuring each AI tool is tedious and repetitive"
Developers use Cursor, Claude Code, Codex CLI, OpenClaw, Gemini CLI, Kilo Code... Each tool needs a different config (API endpoint, key, model). Reconfiguring when switching providers or models is a waste of time.
How OmniRoute solves it:
- CLI Tools Dashboard — Dedicated page with one-click setup for Claude Code, Codex CLI, OpenClaw, Kilo Code, Antigravity, Cline
- GitHub Copilot Config Generator — Generates
chatLanguageModels.jsonfor VS Code with bulk model selection - Onboarding Wizard — Guided 4-step setup for first-time users
- One endpoint, all models — Configure
http://localhost:20128/v1once, access 36+ providers
🔑 8. "Managing OAuth tokens from multiple providers is hell"
Claude Code, Codex, Gemini CLI, Copilot — all use OAuth 2.0 with expiring tokens. Developers need to re-authenticate constantly, deal with client_secret is missing, redirect_uri_mismatch, and failures on remote servers. OAuth on LAN/VPS is particularly problematic.
How OmniRoute solves it:
- Auto Token Refresh — OAuth tokens refresh in background before expiration
- OAuth 2.0 (PKCE) Built-in — Automatic flow for Claude Code, Codex, Gemini CLI, Copilot, Kiro, Qwen, iFlow
- Multi-Account OAuth — Multiple accounts per provider via JWT/ID token extraction
- OAuth LAN/Remote Fix — Private IP detection for
redirect_uri+ manual URL mode for remote servers - OAuth Behind Nginx — Uses
window.location.originfor reverse proxy compatibility - Remote OAuth Guide — Step-by-step guide for Google Cloud credentials on VPS/Docker
📊 9. "I don't know how much I'm spending or where"
Developers use multiple paid providers but have no unified view of spending. Each provider has its own billing dashboard, but there's no consolidated view. Unexpected costs can pile up.
How OmniRoute solves it:
- Cost Analytics Dashboard — Per-token cost tracking and budget management per provider
- Budget Limits per Tier — Spending ceiling per tier that triggers automatic fallback
- Per-Model Pricing Configuration — Configurable prices per model
- Usage Statistics Per API Key — Request count and last-used timestamp per key
- Analytics Dashboard — Stat cards, model usage chart, provider table with success rates and latency
🐛 10. "I can't diagnose errors and problems in AI calls"
When a call fails, the dev doesn't know if it was a rate limit, expired token, wrong format, or provider error. Fragmented logs across different terminals. Without observability, debugging is trial-and-error.
How OmniRoute solves it:
- Unified Logs Dashboard — 4 tabs: Request Logs, Proxy Logs, Audit Logs, Console
- Console Log Viewer — Real-time terminal-style viewer with color-coded levels, auto-scroll, search, filter
- SQLite Proxy Logs — Persistent logs that survive server restarts
- Translator Playground — 4 debugging modes: Playground (format translation), Chat Tester (round-trip), Test Bench (batch), Live Monitor (real-time)
- Request Telemetry — p50/p95/p99 latency + X-Request-Id tracing
- File-Based Logging with Rotation — Console interceptor captures everything to JSON log with size-based rotation
🏗️ 11. "Deploying and maintaining the gateway is complex"
Installing, configuring, and maintaining an AI proxy across different environments (local, VPS, Docker, cloud) is labor-intensive. Problems like hardcoded paths, EACCES on directories, port conflicts, and cross-platform builds add friction.
How OmniRoute solves it:
- npm global install —
npm install -g omniroute && omniroute— done - Docker Multi-Platform — AMD64 + ARM64 native (Apple Silicon, AWS Graviton, Raspberry Pi)
- Docker Compose Profiles —
base(no CLI tools) andcli(with Claude Code, Codex, OpenClaw) - Electron Desktop App — Native app for Windows/macOS/Linux with system tray, auto-start, offline mode
- Split-Port Mode — API and Dashboard on separate ports for advanced scenarios (reverse proxy, container networking)
- Cloud Sync — Config synchronization across devices via Cloudflare Workers
- DB Backups — Automatic backup, restore, export and import of all settings
🌍 12. "The interface is English-only and my team doesn't speak English"
Teams in non-English-speaking countries, especially in Latin America, Asia, and Europe, struggle with English-only interfaces. Language barriers reduce adoption and increase configuration errors.
How OmniRoute solves it:
- Dashboard i18n — 30 Languages — All 500+ keys translated including Arabic, Bulgarian, Danish, German, Spanish, Finnish, French, Hebrew, Hindi, Hungarian, Indonesian, Italian, Japanese, Korean, Malay, Dutch, Norwegian, Polish, Portuguese (PT/BR), Romanian, Russian, Slovak, Swedish, Thai, Ukrainian, Vietnamese, Chinese, Filipino, English
- RTL Support — Right-to-left support for Arabic and Hebrew
- Multi-Language READMEs — 30 complete documentation translations
- Language Selector — Globe icon in header for real-time switching
🔄 13. "I need more than chat — I need embeddings, images, audio"
AI isn't just chat completion. Devs need to generate images, transcribe audio, create embeddings for RAG, rerank documents, and moderate content. Each API has a different endpoint and format.
How OmniRoute solves it:
- Embeddings —
/v1/embeddingswith 6 providers and 9+ models - Image Generation —
/v1/images/generationswith 4 providers and 9+ models - Audio Transcription —
/v1/audio/transcriptions— Whisper-compatible - Text-to-Speech —
/v1/audio/speech— Multi-provider audio synthesis - Moderations —
/v1/moderations— Content safety checks - Reranking —
/v1/rerank— Document relevance reranking - Responses API — Full
/v1/responsessupport for Codex
🧪 14. "I have no way to test and compare quality across models"
Developers want to know which model is best for their use case — code, translation, reasoning — but comparing manually is slow. No integrated eval tools exist.
How OmniRoute solves it:
- LLM Evaluations — Golden set testing with 10 pre-loaded cases covering greetings, math, geography, code generation, JSON compliance, translation, markdown, safety refusal
- 4 Match Strategies —
exact,contains,regex,custom(JS function) - Translator Playground Test Bench — Batch testing with multiple inputs and expected outputs, cross-provider comparison
- Chat Tester — Full round-trip with visual response rendering
- Live Monitor — Real-time stream of all requests flowing through the proxy
📈 15. "I need to scale without losing performance"
As request volume grows, without caching the same questions generate duplicate costs. Without idempotency, duplicate requests waste processing. Per-provider rate limits must be respected.
How OmniRoute solves it:
- Semantic Cache — Two-tier cache (signature + semantic) reduces cost and latency
- Request Idempotency — 5s deduplication window for identical requests
- Rate Limit Detection — Per-provider RPM, min gap, and max concurrent tracking
- Editable Rate Limits — Configurable defaults in Settings → Resilience with persistence
- API Key Validation Cache — 3-tier cache for production performance
- Health Dashboard with Telemetry — p50/p95/p99 latency, cache stats, uptime
🤖 16. "I want to control model behavior globally"
Developers who want all responses in a specific language, with a specific tone, or want to limit reasoning tokens. Configuring this in every tool/request is impractical.
How OmniRoute solves it:
- System Prompt Injection — Global prompt applied to all requests
- Thinking Budget Validation — Reasoning token allocation control per request (passthrough, auto, custom, adaptive)
- 6 Routing Strategies — Global strategies that determine how requests are distributed
- Wildcard Router —
provider/*patterns route dynamically to any provider - Combo Enable/Disable Toggle — Toggle combos directly from the dashboard
- Provider Toggle — Enable/disable all connections for a provider with one click
- Blocked Providers — Exclude specific providers from
/v1/modelslisting
1. Installa globalmente:
npm install -g omniroute
omniroute🎉 La Dashboard si apre su http://localhost:20128
| Comando | Descrizione |
|---|---|
omniroute |
Avviare il server (porta predefinita 20128) |
omniroute --port 3000 |
Usare una porta personalizzata |
omniroute --no-open |
Non aprire il browser automaticamente |
omniroute --help |
Mostrare l'aiuto |
2. Connetti un provider GRATUITO:
Dashboard → Provider → Connetti Claude Code o Antigravity → Login OAuth → Fatto!
3. Usa nel tuo strumento CLI:
Claude Code/Codex/Gemini CLI/OpenClaw/Cursor/Cline Impostazioni:
Endpoint: http://localhost:20128/v1
API Key: [copia dalla dashboard]
Model: if/kimi-k2-thinking
Tutto qui! Inizia a programmare con modelli IA GRATUITI.
Alternativa — eseguire dal codice sorgente:
cp .env.example .env
npm install
PORT=20128 NEXT_PUBLIC_BASE_URL=http://localhost:20128 npm run devOmniRoute è disponibile come immagine Docker pubblica su Docker Hub.
Avvio rapido:
docker run -d \
--name omniroute \
--restart unless-stopped \
-p 20128:20128 \
-v omniroute-data:/app/data \
diegosouzapw/omniroute:latestCon file di ambiente:
# Copia e modifica il .env prima
cp .env.example .env
docker run -d \
--name omniroute \
--restart unless-stopped \
--env-file .env \
-p 20128:20128 \
-v omniroute-data:/app/data \
diegosouzapw/omniroute:latestCon Docker Compose:
# Profilo base (senza strumenti CLI)
docker compose --profile base up -d
# Profilo CLI (Claude Code, Codex, OpenClaw integrati)
docker compose --profile cli up -d| Immagine | Tag | Dimensione | Descrizione |
|---|---|---|---|
diegosouzapw/omniroute |
latest |
~250MB | Ultima versione stabile |
diegosouzapw/omniroute |
1.0.6 |
~250MB | Versione attuale |
🆕 NEW! OmniRoute is now available as a native desktop application for Windows, macOS, and Linux.
- 🖥️ Native Window — Dedicated app window with system tray integration
- 🔄 Auto-Start — Launch OmniRoute on system login
- 🔔 Native Notifications — Get alerts for quota exhaustion or provider issues
- ⚡ One-Click Install — NSIS (Windows), DMG (macOS), AppImage (Linux)
- 🌐 Offline Mode — Works fully offline with bundled server
npm run electron:dev # Development mode
npm run electron:build # Current platform
npm run electron:build:win # Windows (.exe)
npm run electron:build:mac # macOS (.dmg)
npm run electron:build:linux # Linux (.AppImage)📖 Full documentation: electron/README.md
| Tier | Provider | Costo | Reset Quota | Ideale Per |
|---|---|---|---|---|
| 💳 ABBONAMENTO | Claude Code (Pro) | $20/mese | 5h + settimanale | Già abbonato |
| Codex (Plus/Pro) | $20-200/mese | 5h + settimanale | Utenti OpenAI | |
| Gemini CLI | GRATUITO | 180K/mese + 1K/giorno | Tutti! | |
| GitHub Copilot | $10-19/mese | Mensile | Utenti GitHub | |
| 🔑 API KEY | NVIDIA NIM | GRATUITO (1000 crediti) | Una tantum | Test gratuiti |
| DeepSeek | A consumo | Nessuno | Miglior rapporto qualità-prezzo | |
| Groq | Livello gratis + a pagamento | Limitato | Inferenza ultra-veloce | |
| xAI (Grok) | A consumo | Nessuno | Modelli Grok | |
| Mistral | Livello gratis + a pagamento | Limitato | IA Europea | |
| OpenRouter | A consumo | Nessuno | 100+ modelli | |
| 💰 ECONOMICO | GLM-4.7 | $0.6/1M | Giornaliero 10h | Backup economico |
| MiniMax M2.1 | $0.2/1M | Rotativo 5h | Opzione più economica | |
| Kimi K2 | $9/mese fisso | 10M token/mese | Costo prevedibile | |
| 🆓 GRATUITO | iFlow | $0 | Illimitato | 8 modelli gratuiti |
| Qwen | $0 | Illimitato | 3 modelli gratuiti | |
| Kiro | $0 | Illimitato | Claude gratuito |
💡 Consiglio Pro: Inizia con Gemini CLI (180K gratis/mese) + iFlow (illimitato gratis) = $0 di costo!
| Funzionalità | Cosa Fa |
|---|---|
| 🎯 Fallback intelligente 4 livelli | Auto-routing: Abbonamento → API Key → Economico → Gratuito |
| 📊 Tracciamento quote in tempo reale | Conteggio token live + countdown reset per provider |
| 🔄 Traduzione di formato | OpenAI ↔ Claude ↔ Gemini ↔ Cursor ↔ Kiro trasparente |
| 👥 Supporto multi-account | Account multipli per provider con selezione intelligente |
| 🔄 Rinnovo automatico dei token | I token OAuth si rinnovano automaticamente con retry |
| 🎨 Combo personalizzati | 6 strategie: fill-first, round-robin, p2c, random, least-used, cost-optimized |
| 🧩 Modelli personalizzati | Aggiungi qualsiasi ID modello a qualsiasi provider |
| 🌐 Router wildcard | Instrada pattern provider/* verso qualsiasi provider dinamicamente |
| 🧠 Budget di ragionamento | Modalità passthrough, auto, custom e adaptive per modelli di ragionamento |
| 🔀 Model Aliases | Auto-forward deprecated model IDs to current replacements (built-in + custom) |
| ⚡ Background Degradation | Auto-route background tasks (titles, summaries) to cheaper models |
| 💬 Iniezione System Prompt | System prompt globale applicato a tutte le richieste |
| 📄 API Responses | Supporto completo per OpenAI Responses API (/v1/responses) per Codex |
| Funzionalità | Cosa Fa |
|---|---|
| 🖼️ Generazione immagini | /v1/images/generations — 4 provider, 9+ modelli |
| 📐 Embeddings | /v1/embeddings — 6 provider, 9+ modelli |
| 🎤 Trascrizione audio | /v1/audio/transcriptions — Compatibile Whisper |
| 🔊 Testo a voce | /v1/audio/speech — Sintesi audio multi-provider |
| 🛡️ Moderazioni | /v1/moderations — Controlli di sicurezza |
| 🔀 Reranking | /v1/rerank — Riclassificazione rilevanza documenti |
| Funzionalità | Cosa Fa |
|---|---|
| 🔌 Circuit Breaker | Apertura/chiusura auto per provider con soglie configurabili |
| 🛡️ Anti-Thundering Herd | Mutex + semaforo rate-limit per provider con API key |
| 🧠 Cache semantica | Cache a due livelli (firma + semantica) riduce costi e latenza |
| ⚡ Idempotenza richieste | Finestra dedup 5s per richieste duplicate |
| 🔒 Spoofing TLS Fingerprint | Bypass rilevamento bot tramite wreq-js |
| 🌐 Filtro IP | Allowlist/blocklist per controllo accesso API |
| 📊 Rate limit modificabili | RPM, gap minimo e concorrenza massima configurabili |
| 💾 Rate Limit Persistence | Learned limits survive restarts via SQLite with 60s debounce + 24h staleness |
| 🔄 Token Refresh Resilience | Per-provider circuit breaker (5 fails→30min) + 30s timeout per attempt |
| Funzionalità | Cosa Fa |
|---|---|
| 📝 Log richieste | Modalità debug con log completi richiesta/risposta |
| 💾 Log SQLite | Log proxy persistenti che sopravvivono ai riavvii |
| 📊 Dashboard analytics | Recharts: card statistiche, grafico uso, tabella provider |
| 📈 Tracciamento progresso | Eventi SSE di progresso opt-in per lo streaming |
| 🧪 Valutazioni LLM | Test con golden set e 4 strategie di corrispondenza |
| 🔍 Telemetria richieste | Aggregazione latenza p50/p95/p99 + tracciamento X-Request-Id |
| 📋 Log + Quote | Pagine dedicate per navigazione log e tracciamento quote |
| 🏥 Dashboard salute | Uptime, stati circuit breaker, lockout, statistiche cache |
| 💰 Tracciamento costi | Gestione budget + configurazione prezzi per modello |
| Funzionalità | Cosa Fa |
|---|---|
| 💾 Cloud Sync | Sincronizza impostazioni tra dispositivi via Cloudflare Workers |
| 🌐 Deploy ovunque | Localhost, VPS, Docker, Cloudflare Workers |
| 🔑 Gestione API Key | Genera, ruota e limita API key per provider |
| 🧙 Assistente configurazione | Setup guidato in 4 passaggi per nuovi utenti |
| 🔧 Dashboard CLI Tools | Configurazione con un clic per Claude, Codex, Cline, OpenClaw, Kilo, Antigravity |
| 🔄 Backup DB | Backup e ripristino automatici di tutte le impostazioni |
📖 Dettagli funzionalità
Crea combo con fallback automatico:
Combo: "my-coding-stack"
1. cc/claude-opus-4-6 (il tuo abbonamento)
2. nvidia/llama-3.3-70b (API NVIDIA gratuita)
3. glm/glm-4.7 (backup economico, $0.6/1M)
4. if/kimi-k2-thinking (fallback gratuito)
→ Cambia automaticamente quando la quota si esaurisce o si verificano errori
- Consumo token per provider
- Countdown reset (5 ore, giornaliero, settimanale)
- Stima dei costi per livelli a pagamento
- Report spese mensili
Traduzione trasparente tra formati:
- OpenAI ↔ Claude ↔ Gemini ↔ OpenAI Responses
- Il tuo CLI invia in formato OpenAI → OmniRoute traduce → Il provider riceve il formato nativo
- Funziona con qualsiasi strumento che supporti endpoint OpenAI personalizzati
- Aggiungi account multipli per provider
- Round-robin automatico o routing per priorità
- Fallback all'account successivo quando la quota viene raggiunta
- I token OAuth si rinnovano automaticamente prima della scadenza
- Nessuna necessità di ri-autenticazione manuale
- Esperienza trasparente su tutti i provider
- Crea combinazioni di modelli illimitate
- 6 strategie: fill-first, round-robin, power-of-two-choices, random, least-used, cost-optimized
- Condividi combo tra dispositivi con Cloud Sync
- Stato del sistema (uptime, versione, utilizzo memoria)
- Stati circuit breaker per provider (Closed/Open/Half-Open)
- Stato rate limit e lockout attivi
- Statistiche cache firme
- Telemetria latenza (p50/p95/p99) + cache prompt
- Reset salute con un clic
- Debug, test e visualizzazione delle traduzioni di formato API
- Invia richieste e vedi come OmniRoute traduce tra formati dei provider
- Inestimabile per risolvere problemi di integrazione
- Sincronizza provider, combo e impostazioni tra dispositivi
- Sincronizzazione in background automatica
- Archiviazione criptata sicura
Problema: La quota scade inutilizzata, limiti di rate durante la programmazione intensa
Combo: "maximize-claude"
1. cc/claude-opus-4-6 (usa l'abbonamento al massimo)
2. glm/glm-4.7 (backup economico quando la quota è esaurita)
3. if/kimi-k2-thinking (fallback d'emergenza gratuito)
Costo mensile: $20 (abbonamento) + ~$5 (backup) = $25 totale
vs. $20 + sbattere contro i limiti = frustrazione
Problema: Non può permettersi abbonamenti, ha bisogno di IA affidabile per programmare
Combo: "free-forever"
1. gc/gemini-3-flash (180K gratis/mese)
2. if/kimi-k2-thinking (illimitato gratis)
3. qw/qwen3-coder-plus (illimitato gratis)
Costo mensile: $0
Qualità: Modelli pronti per la produzione
Problema: Scadenze strette, non può permettersi downtime
Combo: "always-on"
1. cc/claude-opus-4-6 (migliore qualità)
2. cx/gpt-5.2-codex (secondo abbonamento)
3. glm/glm-4.7 (economico, reset giornaliero)
4. minimax/MiniMax-M2.1 (più economico, reset 5h)
5. if/kimi-k2-thinking (gratuito illimitato)
Risultato: 5 livelli di fallback = zero downtime
Problema: Ha bisogno di assistente IA nelle app di messaggistica, completamente gratuito
Combo: "openclaw-free"
1. if/glm-4.7 (illimitato gratis)
2. if/minimax-m2.1 (illimitato gratis)
3. if/kimi-k2-thinking (illimitato gratis)
Costo mensile: $0
Accesso via: WhatsApp, Telegram, Slack, Discord, iMessage, Signal...
💳 Provider per abbonamento
Dashboard → Provider → Connetti Claude Code
→ Login OAuth → Rinnovo automatico token
→ Tracciamento quota 5h + settimanale
Modelli:
cc/claude-opus-4-6
cc/claude-sonnet-4-5-20250929
cc/claude-haiku-4-5-20251001Consiglio Pro: Usa Opus per compiti complessi, Sonnet per velocità. OmniRoute traccia la quota per modello!
Dashboard → Provider → Connetti Codex
→ Login OAuth (porta 1455)
→ Reset 5h + settimanale
Modelli:
cx/gpt-5.2-codex
cx/gpt-5.1-codex-maxDashboard → Provider → Connetti Gemini CLI
→ Google OAuth
→ 180K completions/mese + 1K/giorno
Modelli:
gc/gemini-3-flash-preview
gc/gemini-2.5-proMiglior valore: Livello gratuito enorme! Usa prima dei livelli a pagamento.
Dashboard → Provider → Connetti GitHub
→ OAuth via GitHub
→ Reset mensile (1° del mese)
Modelli:
gh/gpt-5
gh/claude-4.5-sonnet
gh/gemini-3-pro🔑 Provider per API Key
- Registrati: build.nvidia.com
- Ottieni una API key gratuita (1000 crediti di inferenza inclusi)
- Dashboard → Aggiungi Provider → NVIDIA NIM:
- API Key:
nvapi-your-key
- API Key:
Modelli: nvidia/llama-3.3-70b-instruct, nvidia/mistral-7b-instruct e 50+ altri
Consiglio Pro: API compatibile OpenAI — funziona perfettamente con la traduzione di formato di OmniRoute!
- Registrati: platform.deepseek.com
- Ottieni una API key
- Dashboard → Aggiungi Provider → DeepSeek
Modelli: deepseek/deepseek-chat, deepseek/deepseek-coder
- Registrati: console.groq.com
- Ottieni una API key (livello gratuito incluso)
- Dashboard → Aggiungi Provider → Groq
Modelli: groq/llama-3.3-70b, groq/mixtral-8x7b
Consiglio Pro: Inferenza ultra-veloce — ideale per programmazione in tempo reale!
- Registrati: openrouter.ai
- Ottieni una API key
- Dashboard → Aggiungi Provider → OpenRouter
Modelli: Accesso a 100+ modelli da tutti i principali provider tramite una singola API key.
💰 Provider economici (Backup)
- Registrati: Zhipu AI
- Ottieni la API key dal Coding Plan
- Dashboard → Aggiungi API Key:
- Provider:
glm - API Key:
your-key
- Provider:
Usa: glm/glm-4.7
Consiglio Pro: Il Coding Plan offre 3× quota a 1/7 del costo! Reset giornaliero alle 10:00.
- Registrati: MiniMax
- Ottieni una API key
- Dashboard → Aggiungi API Key
Usa: minimax/MiniMax-M2.1
Consiglio Pro: L'opzione più economica per contesto lungo (1M token)!
- Abbonati: Moonshot AI
- Ottieni una API key
- Dashboard → Aggiungi API Key
Usa: kimi/kimi-latest
Consiglio Pro: $9/mese fisso per 10M token = $0.90/1M di costo effettivo!
🆓 Provider GRATUITI (Backup d'emergenza)
Dashboard → Connetti iFlow
→ Login OAuth iFlow
→ Utilizzo illimitato
Modelli:
if/kimi-k2-thinking
if/qwen3-coder-plus
if/glm-4.7
if/minimax-m2
if/deepseek-r1Dashboard → Connetti Qwen
→ Autorizzazione con codice dispositivo
→ Utilizzo illimitato
Modelli:
qw/qwen3-coder-plus
qw/qwen3-coder-flashDashboard → Connetti Kiro
→ AWS Builder ID o Google/GitHub
→ Utilizzo illimitato
Modelli:
kr/claude-sonnet-4.5
kr/claude-haiku-4.5🎨 Creare combo
Dashboard → Combo → Crea nuovo
Nome: premium-coding
Modelli:
1. cc/claude-opus-4-6 (Abbonamento principale)
2. glm/glm-4.7 (Backup economico, $0.6/1M)
3. minimax/MiniMax-M2.1 (Fallback più economico, $0.20/1M)
Usa nel CLI: premium-coding
Nome: free-combo
Modelli:
1. gc/gemini-3-flash-preview (180K gratis/mese)
2. if/kimi-k2-thinking (illimitato)
3. qw/qwen3-coder-plus (illimitato)
Costo: $0 per sempre!
🔧 Integrazione CLI
Impostazioni → Modelli → Avanzato:
OpenAI API Base URL: http://localhost:20128/v1
OpenAI API Key: [dalla dashboard OmniRoute]
Model: cc/claude-opus-4-6
Usa la pagina CLI Tools nella dashboard per la configurazione con un clic, o modifica ~/.claude/settings.json manualmente.
export OPENAI_BASE_URL="http://localhost:20128"
export OPENAI_API_KEY="your-omniroute-api-key"
codex "your prompt"Opzione 1 — Dashboard (consigliato):
Dashboard → CLI Tools → OpenClaw → Seleziona Modello → Applica
Opzione 2 — Manuale: Modifica ~/.openclaw/openclaw.json:
{
"models": {
"providers": {
"omniroute": {
"baseUrl": "http://127.0.0.1:20128/v1",
"apiKey": "sk_omniroute",
"api": "openai-completions"
}
}
}
}Nota: OpenClaw funziona solo con OmniRoute locale. Usa
127.0.0.1invece dilocalhostper evitare problemi di risoluzione IPv6.
Impostazioni → Configurazione API:
Provider: OpenAI Compatible
Base URL: http://localhost:20128/v1
API Key: [dalla dashboard OmniRoute]
Model: if/kimi-k2-thinking
OmniRoute include un framework di valutazione integrato per testare la qualità delle risposte LLM contro un golden set. Accesso via Analytics → Evals nella dashboard.
Il "OmniRoute Golden Set" precaricato contiene 10 casi di test:
- Saluti, matematica, geografia, generazione codice
- Conformità formato JSON, traduzione, markdown
- Rifiuto sicurezza (contenuto nocivo), conteggio, logica booleana
| Strategia | Descrizione | Esempio |
|---|---|---|
exact |
L'output deve corrispondere esattamente | "4" |
contains |
L'output deve contenere la sottostringa (case-insensitive) | "Paris" |
regex |
L'output deve corrispondere al pattern regex | "1.*2.*3" |
custom |
Funzione JS personalizzata restituisce true/false | (output) => output.length > 10 |
Clicca per espandere la guida alla risoluzione problemi
"Language model did not provide messages"
- Quota del provider esaurita → Controlla il tracker quote nella dashboard
- Soluzione: Usa un combo con fallback o passa a un livello più economico
Rate limiting
- Quota abbonamento esaurita → Fallback a GLM/MiniMax
- Aggiungi combo:
cc/claude-opus-4-6 → glm/glm-4.7 → if/kimi-k2-thinking
Token OAuth scaduto
- Rinnovato automaticamente da OmniRoute
- Se il problema persiste: Dashboard → Provider → Riconnetti
Costi elevati
- Controlla le statistiche di utilizzo in Dashboard → Costi
- Cambia il modello principale a GLM/MiniMax
- Usa il livello gratuito (Gemini CLI, iFlow) per compiti non critici
La dashboard si apre sulla porta sbagliata
- Imposta
PORT=20128eNEXT_PUBLIC_BASE_URL=http://localhost:20128
Errori cloud sync
- Verifica che
BASE_URLpunti alla tua istanza in esecuzione - Verifica che
CLOUD_URLpunti all'endpoint cloud previsto - Mantieni i valori
NEXT_PUBLIC_*allineati con i valori del server
Il primo login non funziona
- Controlla
INITIAL_PASSWORDnel.env - Se non impostata, la password predefinita è
123456
Nessun log delle richieste
- Imposta
ENABLE_REQUEST_LOGS=truenel.env
Il test di connessione mostra "Invalid" per provider compatibili OpenAI
- Molti provider non espongono l'endpoint
/models - OmniRoute v1.0.6+ include validazione fallback tramite chat completions
- Assicurati che la URL base includa il suffisso
/v1
- Runtime: Node.js 20+
- Linguaggio: TypeScript 5.9 — 100% TypeScript in
src/eopen-sse/(v1.0.6) - Framework: Next.js 16 + React 19 + Tailwind CSS 4
- Database: LowDB (JSON) + SQLite (stato dominio + log proxy)
- Streaming: Server-Sent Events (SSE)
- Auth: OAuth 2.0 (PKCE) + JWT + API Keys
- Testing: Node.js test runner (368+ test unitari)
- CI/CD: GitHub Actions (pubblicazione automatica npm + Docker Hub al rilascio)
- Sito Web: omniroute.online
- Pacchetto: npmjs.com/package/omniroute
- Docker: hub.docker.com/r/diegosouzapw/omniroute
- Resilienza: Circuit breaker, backoff esponenziale, anti-thundering herd, TLS spoofing
| Documento | Descrizione |
|---|---|
| Guida Utente | Provider, combo, integrazione CLI, deploy |
| Riferimento API | Tutti gli endpoint con esempi |
| Risoluzione Problemi | Problemi comuni e soluzioni |
| Architettura | Architettura del sistema e dettagli interni |
| Come Contribuire | Setup di sviluppo e linee guida |
| Spec OpenAPI | Specifica OpenAPI 3.0 |
| Politica di Sicurezza | Segnalazione vulnerabilità e pratiche di sicurezza |
💬 Unisciti alla nostra community! Gruppo WhatsApp — Ottieni aiuto, condividi consigli e rimani aggiornato.
- Sito Web: omniroute.online
- GitHub: github.com/diegosouzapw/OmniRoute
- Issues: github.com/diegosouzapw/OmniRoute/issues
- WhatsApp: Gruppo della comunità
- WhatsApp: Gruppo della comunità
- Progetto Originale: 9router di decolua
- Fai il fork del repository
- Crea il tuo branch di funzionalità (
git checkout -b feature/amazing-feature) - Fai il commit delle modifiche (
git commit -m 'Add amazing feature') - Fai il push al branch (
git push origin feature/amazing-feature) - Apri una Pull Request
Consulta CONTRIBUTING.md per le linee guida dettagliate.
# Crea un rilascio — la pubblicazione npm avviene automaticamente
gh release create v1.0.6 --title "v1.0.6" --generate-notesUn ringraziamento speciale a 9router di decolua — il progetto originale che ha ispirato questo fork. OmniRoute si costruisce su quell'incredibile base con funzionalità aggiuntive, API multi-modali e una riscrittura completa in TypeScript.
Un ringraziamento speciale a CLIProxyAPI — l'implementazione originale in Go che ha ispirato questo porting in JavaScript.
Licenza MIT — vedi LICENSE per i dettagli.
omniroute.online