Skip to content
Formray
R&D — Spec Complete

Sapere prima di fare deploy.

Validazione ibrida deterministica + AI pre-deployment per Kubernetes. Simula lo scheduling, prevedi la capacità, intercetta i guasti prima che raggiungano la produzione.

Il divario di kubectl

kubectl apply --dry-run kubectl apply --dry-run valida la sintassi YAML. Non dice nulla su se il tuo cluster può effettivamente eseguire il workload.

Il deployment entrerà? Ci sono abbastanza risorse? Attiverà l'autoscaling? Le regole di pod anti-affinity impediranno lo scheduling? Evincerà workload esistenti?

Oggi fai deploy e scopri. PRELUDE te lo fa sapere prima.

Tre livelli di validazione

01

Motore Deterministico

Calcolo puro. Analizza i manifest, calcola i requisiti di risorse, simula lo scheduler di Kubernetes. Nessuna AI necessaria — è matematica. Analisi request/limit, matching node affinity, topology spread constraint, validazione PVC binding.

02

Ragionamento AI

Due agenti specializzati. L'Architecture Agent valuta i pattern di deployment, identifica gli anti-pattern e suggerisce miglioramenti. Il Capacity Agent prevede il comportamento di scaling, stima i costi e modella gli scenari di crescita. Gli agenti comunicano tramite A2A Protocol.

03

Integrazione

REST API per pipeline CI/CD. Tool CLI per sviluppatori. Hook ArgoCD PreSync per workflow GitOps. Server MCP per operazioni assistite dall'AI.

Come si integrano i livelli

Il motore deterministico fornisce le fondamenta — affidabile, veloce, senza bisogno di chiamate API esterne. Il ragionamento AI si posiziona sopra come potenziamento opzionale, fornendo analisi dei pattern e previsioni di capacità. I punti di integrazione collegano PRELUDE alla tua pipeline CI/CD esistente.

System ArchitectureHybrid deterministic + AI pre-deployment validationLAYER 1 — INTEGRATIONREST APICLIArgoCD PluginMCP ServerLAYER 2 — AI REASONING (Optional)Architecture AgentPattern analysis · Anti-pattern detectionA2ACapacity AgentScaling prediction · Cost estimationLAYER 3 — DETERMINISTIC ENGINEManifest ParserYAML / Helm / Kust.Resource CalculatorCPU · Memory · PVCScheduling SimulatorNode scoring · TaintsConflict DetectorPorts · Names · PVC

Semplice da usare

Un singolo comando valida il tuo deployment rispetto allo stato reale del cluster.

terminal
# Validate a deployment against your cluster
prelude validate deployment.yaml --cluster prod-gke

# Output
✓ Manifest parsed (Deployment: api-server, 3 replicas)
✓ Resource requirements: 1.5 CPU, 3Gi memory (total)
✓ Scheduling simulation: all 3 replicas schedulable
✓ Node pool: e2-standard-4 has capacity (62% utilized → 74%)
⚠ Warning: No PodDisruptionBudget defined
⚠ Warning: Memory request/limit ratio is 1:4 (burst risk)

# With AI reasoning enabled
prelude validate deployment.yaml --cluster prod-gke --ai

✓ Deterministic validation passed
✓ AI Architecture Agent: deployment pattern is sound
⚠ AI Capacity Agent: at current growth rate (12%/mo),
  node pool will need scaling in ~18 days
  Recommendation: increase node pool max from 5 to 8

Funzionalità

Dieci funzionalità su tre livelli di validazione.

Parsing dei manifest

Deterministico

Deployment, StatefulSet, DaemonSet, Job, CronJob.

Calcolo delle risorse

Deterministico

CPU, memoria, GPU, storage effimero su tutte le repliche.

Simulazione dello scheduling

Deterministico

Node affinity, anti-affinity, taint, toleration, topology spread.

Validazione PVC binding

Deterministico

Disponibilità StorageClass, capacità, modalità di accesso.

Rilevamento dei conflitti

Deterministico

Conflitti di porta, collisioni di nomi risorse, violazioni delle quote.

Analisi dei pattern

AI

Anti-pattern di deployment, raccomandazioni sulle best practice.

Previsione della capacità

AI

Modellazione della crescita, timeline di scaling, stima dei costi.

Valutazione del rischio

AI

Probabilità di eviction, rischio OOM, scenari di fallimento dello scheduling.

Integrazione CI/CD

Integrazione

REST API, exit code CLI, hook ArgoCD PreSync.

Server MCP

Integrazione

Operazioni assistite dall'AI tramite Model Context Protocol.

Colmare il divario di validazione

PRELUDE opera dove gli strumenti esistenti si fermano — oltre la sintassi, nella capacità reale del cluster.

PRELUDEkubectl dry-runDatree/CheckovKubecost
Validazione sintatticatruetruetruefalse
Validazione delle policyPianificatafalsetruefalse
Simulazione della capacitàtruefalsefalseParziale (costi)
Simulazione dello schedulingtruefalsefalsefalse
Raccomandazioni AISì (opzionale)falsefalsefalse
Previsione dei costitruefalsefalsetrue
Integrazione CI/CDtrueManualetruetrue
Open-sourceSì (AGPL)IntegratoMistoParziale

Stack tecnologico

Costruito su fondamenta solide, progettato per l'estensibilità.

TecnologiaRuolo
PythonRuntime principale
FastAPIREST API
LangGraphOrchestrazione agenti AI
A2A ProtocolComunicazione agent-to-agent
MCPIntegrazione Model Context Protocol
GKETarget primario (Autopilot + Standard)

A che punto siamo

PRELUDE è in fase attiva di R&D con una specifica e un'architettura complete. Il motore deterministico — parsing dei manifest, calcolo delle risorse, simulazione dello scheduling — è la fondazione. I livelli di ragionamento AI si costruiscono sopra, opzionali e additivi.

Stiamo costruendo in modo aperto. L'architettura è documentata, l'approccio è trasparente e il codice sarà rilasciato con licenza AGPL.

Segui lo sviluppo.

PRELUDE viene costruito in modo aperto. Metti una stella al repo, leggi la documentazione dell'architettura o segui le nostre Field Notes.