API e MCP server per
l’AI on-premise.
Usa l’endpoint OpenAI-compatibile della box, collega i tuoi dati locali e pubblica MCP server nel registry IntelligenceBox senza cambiare stack.
curl -X POST "$BOX_URL/v1/chat/completions" \
-H "Authorization: Bearer $IBX_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-oss-cinziapro",
"messages": [{ "role": "user", "content": "Dammi un riassunto dei log di oggi" }]
}'Base URL
$BOX_URL/api
Dev: http://localhost:3001/api
Auth
JWT o x-api-key
Richiedi via /auth/api-key/*
API IntelligenceBox
Tutto quello che ti serve per integrare.
Endpoint OpenAI-compatibile
POST /v1/chat/completions con stream, temperature, top_p e tools supportati.
Upload sicuro on-prem
Multipart /upload con JWT; pipeline di ingestion verso il motore di ricerca vettoriale interno.
Registry pubblico
Catalogo assistenti e MCP accessibile via /api/open/catalog e /api/open/mcps/:id/manifest.
Upload, indicizzazione, query.
Invia documenti via /upload, la box li indicizza nel motore vettoriale interno e li rende interrogabili via /vectors/search o RAG nei completions. Nessun file lascia la tua rete.
curl -X POST "$BOX_URL/upload" \ -H "Authorization: Bearer $IBX_TOKEN" \ -F "file=@contract.pdf" \ -F "collection=legal"
curl -X POST "$BOX_URL/vectors/search" \
-H "Authorization: Bearer $IBX_TOKEN" \
-H "Content-Type: application/json" \
-d '{ "query": "penali di recesso", "collection": "legal", "topK": 5 }'Distribuisci i tuoi tools come MCP server.
Costruisci un server MCP, pubblicalo su Docker registry e registralo in IntelligenceBox. Gli assistenti potranno invocare i tuoi tools con privilegi controllati.
- 1Clona il repo intelligencebox-plugins e usa il template server MCP già pronto.
- 2Implementa le chiamate nel tuo server (REST, SOAP, DB) e esponi i tools nel manifest MCP.
- 3Containerizza (Docker) e pubblica l’immagine su un registry accessibile.
- 4Registra il server nel registry MCP (CLI o API) per distribuirlo agli assistenti.
Deployment sicuro
Autenticazione e policy in un unico posto.
Genera API key dedicate via `/auth/api-key/*`, limita l’accesso agli endpoint MCP e controlla le sorgenti dati. Ogni server MCP viene eseguito nel perimetro della box o su infrastruttura approvata.
OpenAI compatibile
Funziona con SDK OpenAI standard (Node/Python).
MCP manifest
Manifest JSON per tools, resources e endpoints sicuri.
Docker-first
Pubblica l’immagine MCP su GHCR o registry privato.
Docs pronte
Template per README, esempio server IOP incluso.
Pronto a costruire
Porta i tuoi workflow in IntelligenceBox.
Integra dati locali, pubblica MCP server e abilita assistenti sicuri per i tuoi team. Il team engineering può partire da subito con le guide qui sopra.
