SentinelCore è la piattaforma enterprise di vulnerability management progettata per trasformare il caos delle vulnerabilità in un processo orchestrato e misurabile. A differenza dei semplici scanner, Sentinel Core aggrega risultati da tool multipli, applica intelligenza contestuale per prioritizzare i rischi reali e coordina automaticamente i team tecnici nella remediation.
Production Ready
Avrai una Macchina Virtuale Debian 12/13 pronta per essere inserita nella tua infrastruttura. Il caricamento è veloce e prestante, efficienza garantita. Rust garantisce sicurezza e prestanza anche sotto carico, il frontend completo ma intuitivo ti permette di risparmiare tempo e risorse.
Continuous Monitoring
SentinelCore si inserisce nelle attività di risoluzione delle vulnerabilità riducendo il tempo medio di esposizione dagli attuali 65-135 giorni ai 6-15. Inoltre la prioritizzazione ideata da noi prende in considerazione molti aspetti non solo il CVSS.
Workflow
L’acquisizione dei risultati dal tuo scanner delle vulnerabilità avviene automaticamente, una volta impostato e sentinelcore configurato i tuoi sistemisti trovano assegnate e prioritizzate le vulnerabilità sugli host di loro competenza. Il workflow è automatizzato al 90%
MTTR medio attuale
65 giorni
Breach per mancanza patch
60%
Costo medio data breach
€4.88M
Costruito in Rust per performance e affidabilità enterprise-grade, Sentinel Core elimina il problema della “vulnerability fatigue” attraverso risk scoring composito che considera non solo CVSS, ma anche probabilità di exploit (EPSS), esposizione asset, impatto business e disponibilità patch. Il risultato: i vostri team lavorano sulle vulnerabilità che contano davvero, non su migliaia di alert irrilevanti.
Axum 0.6
114 Moduli
18.2.0
108 Componenti
15+
66 Migrazioni
0.7
83 dipendenze totali
Frequently Asked Questions
Questa è la sezione dedicata a “SentinelCore”. Puoi trovare info e faq utili al deploy o ai maggiori casi d’ uso. Se trovi delle difficoltà noi siamo sempre pronti a rispondere ad ogni tua chiamata! Non esitare a contattarci!
**Notification Throttling:** – Max 1 notification ogni 15 min per stesso evento (evita spam) – Digest mode per eventi low-priority – Quiet hours: No notifications 22:00-08:00 (configurable)
**Dashboard Real-Time:**
**Executive Dashboard:** – **KPI Metrics:** – Total vulnerabilities (trend graph) – Critical/High/Medium/Low breakdown (pie chart) – Mean Time To Remediate (MTTR) – target vs actual – SLA compliance rate (%) – Risk score evolution (line chart last 90 days) – **Top Risks**: 10 vulnerabilità highest risk score – **Team Performance**: Remediation rate per team – **Compliance Status**: % vulnerabilities affecting compliance
**Operational Dashboard:** – **My Tasks**: Vulnerabilities assigned to logged user – **Team Workload**: Task distribution tra team members – **Upcoming Deadlines**: Task con scadenza <7 giorni – **Blockers**: Task in stato “Pending Approval” >3 giorni – **Recent Activity**: Live feed azioni (assignments, closures, comments)
**Technical Dashboard:** – **Vulnerability Heatmap**: Asset (Y-axis) vs Severity (color) – **Attack Surface**: External vs Internal vulnerabilities – **Technology Breakdown**: Vulnerabilities per software (Apache, OpenSSL, etc.) – **Age Distribution**: Histogram vulnerabilità per età (days open) – **Re-opened Issues**: Vulnerabilità che ritornano (patch non efficace?)
**Report Types:**
**1. Executive Summary Report:** – **Audience**: C-level, Board – **Frequency**: Monthly – **Content**: – 1-page overview con key metrics – Risk trend (improving/stable/worsening) – Top 3 critical findings con business impact – Budget impact analysis (se breach avvenisse) – Comparison vs industry benchmark – **Format**: PDF con charts, presentazione-ready
**2. Technical Vulnerability Report:** – **Audience**: Security team, DevOps – **Frequency**: Weekly o on-demand – **Content**: – Detailed vulnerability list con CVSS, EPSS, CVE – Affected assets per vulnerability – PoC links, exploit details – Remediation steps (vendor advisory, patch commands) – Verification procedures (come testare post-patch) – Rollback plan (se patch causa problemi) – **Format**: PDF/HTML con code snippets, CLI commands
**3. Compliance Report:** – **Audience**: Compliance officer, Auditor – **Frequency**: Quarterly o pre-audit – **Content**: – Mapping vulnerabilities → compliance controls – “CVE-2024-1234 affects PCI-DSS Requirement 6.2” – “10 vulnerabilities impact ISO 27001 A.12.6.1” – Gap analysis: Quali controlli non compliant – Evidence: Screenshot, config file, patch logs – Remediation timeline con milestone – Risk acceptance register (con approval trail) – **Format**: PDF con digital signature, audit-trail embedded
**4. Team Performance Report:** – **Audience**: Team Leader, Manager – **Frequency**: Monthly – **Content**: – Remediation rate per team member – MTTR per engineer (chi è più veloce?) – SLA compliance per team – Workload distribution (chi è overloaded?) – Training needs identification (se engineer lento su tipo vuln specifico) – **Format**: PDF/CSV, può alimentare performance review
**Export Formats:** – **PDF**: Standard, branding customizable – **HTML**: Interactive, embeddable in wiki/intranet – **CSV**: Per analisi custom (Excel, Tableau, Power BI) – **JSON**: Per integration automation (scripts, SIEM) – **XML**: Per legacy systems integration – **DOCX**: Per editing ulteriore (aggiungere sezioni custom)
**Scheduled Reports:** – Cron-like scheduling (e.g. “1st Monday every month 9 AM”) – Auto-email a distribution list – Auto-upload a SFTP/S3/SharePoint – Retention policy (conserva report per X mesi)
**Palo Alto Cortex XSOAR (Demisto):** – Custom integrations via Python – Incident enrichment con Sentinel Core vulnerability data – Orchestration: Patch → Test → Rollback se fail
**IBM Resilient:** – Incident creation automatica per Critical – Workflow customization per compliance requirement – Integration con ServiceNow via Resilient
**4. Threat Intelligence Enrichment:** “` Trigger: New vulnerability imported Action: – Query VirusTotal for CVE – Query MISP for IoC – Check Shodan for asset exposure – Update vulnerability with enriched data – If active exploitation detected: Escalate to Critical
API Automation:
REST API Endpoints:
POST /api/vulnerabilities – Import vulnerability
GET /api/vulnerabilities?risk_score_gte=80 – Query high-risk
POST /api/vulnerabilities/{id}/assign – Assign to team
PATCH /api/vulnerabilities/{id} – Update status
POST /api/scan/trigger – Trigger re-scan via scanner API
GET /api/reports/generate – Generate report programmatically
Webhook Triggers:
On vulnerability created (per scanner integration)
On vulnerability remediated (per SOAR closure)
On SLA breach (per escalation automation)
On risk score change (per prioritization automation)
Caso 1: Enterprise con 1000+ Server – Vulnerability Chaos
**Scenario:** Azienda retail italiana 2000 dipendenti, 1200 server (fisici + VM + cloud). Usano Nessus + OpenVAS + Qualys. Ricevono 15.000+ vulnerabilità/mese. Team security (3 persone) sommerso, non sanno da dove iniziare. MTTR 45 giorni. Audit ISO 27001 failed per “unmanaged vulnerabilities”.
**Problema:** – Scanner multipli generano duplicati – Nessuna prioritizzazione → trattano tutte uguali – No tracking chi fa cosa – Management non ha visibility
**Implementazione Sentinel Core:**
**Week 1: Setup** – Deploy Sentinel Core su VM dedicata – Integrazione Nessus + OpenVAS + Qualys via API – Import storico 30 giorni: 15.000 vulnerabilities → deduplicate → 8.500 unique
**Week 2: Prioritization** – Configurazione risk scoring customizzato: – Asset business-critical (payment, e-commerce): +20% weight – External exposure: +15% weight – PCI-DSS scope: force High priority minimum – Risultato: 8.500 vulnerabilità → 150 Critical, 800 High (focus su queste)
**Week 3: Team Orchestration** – Creazione 4 team: Infrastructure, Windows, Linux, Applications – Assignment automatico vulnerabilities per OS/technology – Ogni team riceve ~200 High tasks, manageable
**Week 4-8: Workflow** – Slack integration: Alert Critical in canale dedicato – Jira integration: Auto-ticket creation – SLA enforcement: Critical 7 giorni, High 30 giorni – Dashboard executive: CISO vede progress real-time
**Risultati dopo 3 mesi:** – **MTTR**: 45 giorni → 12 giorni (73% reduction) – **Critical backlog**: 150 → 8 (95% cleared) – **High backlog**: 800 → 120 (85% cleared) – **SLA compliance**: 35% → 92% – **Team morale**: Improved (lavoro organizzato vs chaos) – **Audit ISO 27001**: Passed, auditor impressed by tracking system – **ROI**: Evitata remediation consulting esterno (~€80k)
—
Caso 2: MSP Gestisce 50 Clienti – Multi-Tenancy
**Scenario:** MSP gestisce security per 50 PMI clienti. Ogni cliente ha 10-50 asset. Usavano spreadsheet Excel per tracking vulnerabilities. Clienti chiedono report mensili compliance. Team MSP (5 persone) passava 2 giorni/mese solo a preparare report.
**Implementazione:** – **Multi-tenant deployment**: Istanza Sentinel Core per ogni cliente (isolamento dati) – **Standardizzazione scanning**: OpenVAS automated scan settimanale tutti clienti – **Template remediation**: Playbook Ansible per patch comuni (Apache, OpenSSL, kernel) – **White-label reporting**: Report con logo cliente
**Workflow Automatizzato:** “` Lunedì: OpenVAS scan automatico 50 clienti (overnight) Martedì: Import automatico risultati in Sentinel Core Mercoledì: Assignment automatico task a team MSP Gio-Ven: Team MSP lavora su remediation Fine mese: Report automatico generato e inviato a clienti
Client satisfaction: NPS +25 punti (clienti apprezzano report professionali)
Upselling: 15 clienti hanno comprato “managed remediation” premium service (+€30k annual recurring revenue)
Team efficiency: Gestiscono 50 clienti con 5 persone (prima 3 full-time solo per reporting)
Caso 3: DevOps Team – Shift-Left Security
Scenario: Startup SaaS 80 dipendenti, rilasci settimanali. Vogliono “shift-left” security: trovare vulnerabilities prima di produzione. Usano GitLab CI/CD. Security team (2 persone) non riesce stare dietro a velocity dev.
# Check if Critical vulnerabilities found – | CRITICAL_COUNT=$(curl -s “$SENTINEL_CORE_URL/api/vulnerabilities/count?severity=critical&pipeline_id=$CI_PIPELINE_ID” \ -H “Authorization: Bearer $CI_SENTINEL_TOKEN”)
if [ “$CRITICAL_COUNT” -gt 0 ]; then echo “❌ Found $CRITICAL_COUNT critical vulnerabilities. Pipeline blocked.” exit 1 fi rules: – if: $CI_PIPELINE_SOURCE == “merge_request” “`
**Policy:** – Critical vulnerabilities → Pipeline bloccata, no merge – High vulnerabilities → Warning, merge consentito ma Jira ticket creato – Medium/Low → Log only
**Risultati dopo 6 mesi:** – **Vulnerabilities in production**: -87% (trovate prima in CI/CD) – **Security debt**: Praticamente zero (no accumulo vulns) – **Developer happiness**: High (immediate feedback, no sorprese post-deploy) – **Security team workload**: -60% (developers fixano direttamente in dev phase) – **Incident response**: Solo 2 security incidents vs 12 anno precedente
—
Caso 4: Financial Services – Compliance PCI-DSS
**Scenario:** Banca online deve mantenere PCI-DSS compliance. 300 server in scope (cardholder data environment). QSA audit trimestrale. Vulnerability management è PCI-DSS Requirement 6.1/6.2 critical.
**PCI-DSS Requirements:** – Req 6.1: Scan mensile con ASV approved scanner – Req 6.2: Patch Critical entro 30 giorni discovery – Req 11.2: Internal vulnerability scan trimestrale + after significant changes
**Implementazione:** – **Scanner**: Qualys (ASV approved) per external, Nessus internal – **Sentinel Core**: Orchestration + compliance reporting – **Policy enforcement**: – Critical PCI scope: SLA 30 giorni (rigido) – Automatic escalation CISO se SLA breach risk – Change management integration: Ogni patch in prod richiede CAB approval
**Compliance Dashboard:** – Real-time view: “X Critical vulnerabilities, Y giorni rimanenti per compliance” – Historical: Last 4 quarters scan results (dimostra continuous compliance) – Exception tracking: Risk acceptance con justification (per auditor)
Per fornire le migliori esperienze, utilizziamo tecnologie come i cookie per memorizzare e/o accedere alle informazioni del dispositivo. Il consenso a queste tecnologie ci permetterà di elaborare dati come il comportamento di navigazione o ID unici su questo sito. Non acconsentire o ritirare il consenso può influire negativamente su alcune caratteristiche e funzioni.
Funzionale
Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici.L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.