AI
  • Azure AI Foundry
  • Google Vertex AI
  • Model Context Protocol
  • Agent2Agent Protocol (A2A)
  • Neo4J
  • Amazon Bedrock
Quantyca Quality Inspection
Scopri

Contesto

Perché è importante gestire la qualità dei dati

Gestire in modo sistemico la qualità dei dati è necessario per rendere questi ultimi degli asset a valore per le organizzazioni. I dati a disposizione di un’organizzazione acquistano valore in quantità proporzionale al loro utilizzo: se non utilizzati, sono solamente fonte di rischi e costi per l’azienda, che li deve gestire, manutenere, proteggere.

È difficile auspicare un uso avanzato dei dati se questi non sono di qualità e non riscuotono la fiducia degli utenti. Al contrario, se la qualità dei dati è misurata in modo oggettivo, monitorata e riportata con trasparenza agli utenti, è più facile che questi siano invogliati ad utilizzare gli asset dati a disposizione per esigenze variegate, da quelle più critiche per il business a quelle più innovative. Non a caso, gli indicatori che riportano lo stato di qualità dei dati sono tra i metadati più significativi mostrati agli utenti dagli strumenti di data product marketplace.

metadati di qualità in un data product marketplace

I metadati sullo stato di qualità dei dati sono tra i più rilevanti mostrati in un data product marketplace 

Anche i risultati prodotti dalle applicazioni di intelligenza artificiale sono migliori se utilizzano come contesto una base di asset dati di qualità, affidabili e rilevanti per le necessità degli utenti. L’AI generativa, come vale per tutte le ondate di innovazione tecnologica, sta attraversando una fase di forte entusiasmo: se, per via di dati alla base non affidabili, l’uso di agenti, chatbot e altri tipi di assistenti fornisce agli utenti risposte spesso errate o imprecise, si rischia che l’illusione si trasformi presto in delusione e che si generi un’inerzia al cambiamento.

Ci sono anche altre ragioni per cui conviene gestire in modo sistemico la qualità dei dati, meno visibili ma non meno importanti: ridurre i rischi e i costi per l’azienda, favorire la data governance e contribuire a mantenere compliance con le normative internazionali e le regolamentazioni di settore.

La qualità dei dati desiderata dipende dai casi d’uso

Il livello di qualità attesa non è un target assoluto, ma dipende dalla finalità di utilizzo dei dati. Infatti, un asset dati è di qualità nella misura in cui rispetta le aspettative degli utilizzatori per l’uso che ne devono fare (“fit for purpose”).

Come tutte le attività legate ai dati, anche la gestione della qualità non è a costo zero, per cui occorre implementarla in modo mirato e considerando sempre il rapporto tra costi di implementazione e valore fornito in termini di riduzione del rischio, partendo dagli asset dati più critici.

Risk analysis per qualità dei dati

La valutazione del rischio è uno dei criteri principali per definire le priorità nell’implementazione della qualità dei dati.

I problemi comuni che derivano da scarsa qualità dei dati

Senza un investimento sistemico sulla qualità dei dati, le organizzazioni vanno incontro a problematiche quali:

Decisioni errate
Quando i dati più importanti di un’azienda sono di scarsa qualità e vengono utilizzati per prendere decisioni strategiche di grande impatto sulle performance dell’organizzazione, queste potrebbero portare a risultati negativi in termini di profitto o altri parametri rilevanti per l’azienda.
→ Insoddisfazione dei clienti
Dati errati, incoerenti o incompleti nei punti di contatto con il cliente possono generare insoddisfazione, reclami e, in alcuni casi, la perdita del cliente.
→ Inefficienza operativa
Se gli asset dati fondamentali per i processi di business sono di scarsa qualità, è rischioso utilizzarli per guidare funzionalità di automazione (es: attivazione automatica di una campagna di marketing), per cui si è costretti a ripiegare su una gestione manuale delle fasi di processo, generando rallentamenti e inefficienze.
→ Difficoltà di governo
Quando gli asset dati ufficiali disponibili a livello di organizzazione sono di scarsa affidabilità, possono verificarsi scenari sempre più frequenti di shadow IT, in cui varie unità di business cercano di sviluppare le proprie soluzioni indipendenti di data management (estrazioni di dati dai sistemi sorgente, dashboard private, modelli non governati) che non condividono con le altre unità, di cui l’azienda perde il governo.

Per implementare la qualità dei dati in modo efficace ma allo stesso tempo sostenibile è necessario rispondere a domande fondamentali come:
Quali sono gli asset dati più critici per l’organizzazione?
Per quali finalità i dati vengono utilizzati?
Quali sono gli impatti sui casi d’uso se la qualità dei dati è scarsa?
Qual è il livello ottimale e il livello minimo di qualità da garantire su un asset dati per i casi d’uso identificati?
Come si può dare garanzia agli utenti che la qualità dei dati rispetti le aspettative?
Come si può implementare la gestione della qualità dei dati su larga scala?
Come si possono coordinare gli sforzi di gestione della qualità dei dati con le altre iniziative previste dalla strategia dati & AI?

Punti critici

Una gestione sistemica della qualità dei dati aziendali si fonda su alcuni pilastri fondamentali:

Gestire la qualità dei dati non deve essere considerata un’attività di progetto circoscritta, con un inizio e una fine, al contrario è una capability di data management che richiede un focus continuativo e deve essere parte integrante di tutte le attività progettuali effettuate in ambito dati.

Essendo i dati asset aziendali condivisi, alla cui gestione contribuiscono diversi profili professionali, sia di business sia IT, ciascuno degli attori coinvolti è chiamato a contribuire a garantire la qualità dei dati relativamente alle attività di propria competenza.

Investire nel miglioramento della qualità dei dati significa prima di tutto lavorare sulla prevenzione, curando in fase di progettazione la consistenza dei processi di business, implementando controlli applicativi nei sistemi sorgente per ridurre dal principio la generazione di problemi di qualità dei dati e non limitandosi alla correzione di questi ultimi.

Per risolvere in modo duraturo gli errori di qualità nei dati occorre identificare ed eliminare la causa radice di essi, non agire sui sintomi, altrimenti la probabilità che il problema si ripresenti è elevata.

Non è sufficiente implementare strumenti a supporto della gestione della qualità dei dati, occorre assegnare a persone selezionate la responsabilità esplicita di mantenere un presidio continuo sulla qualità nei processi di gestione dei dati.

Soluzione

Il punto di contatto tra semantica e qualità dei dati

La gestione della qualità dei dati parte dalla definizione esplicita delle aspettative da parte degli stakeholder in base all’uso che devono farne e delle regole di business che devono essere verificate per assicurare che i dati siano di qualità.
La definizione di queste regole viene fatta a complemento della definizione dei concetti di dominio (ad esempio: il “Cliente”) e degli attributi che li caratterizzano (ad esempio: il “Codice Fiscale”), arricchendo la base di conoscenza modellata nell’architettura informativa.
Le regole di business relative alla qualità dei dati rappresentano il riferimento per l’implementazione dei controlli di qualità all’interno delle applicazioni e dei data product, sia preventivi sia correttivi.

Le regole di business a corredo del modello concettuale sono il riferimento per i controlli di qualità dei dati

Ruoli e processi

Per migliorare la qualità dei dati è necessario prima di tutto agire dal punto di vita organizzativo, ovvero assegnare responsabilità esplicite sulla qualità ai ruoli coinvolti nei processi di gestione dei dati e della conoscenza.

I ruoli coinvolti nella gestione della qualità dei dati

I ruoli coinvolti nella gestione della qualità dei dati

I principali ruoli coinvolti sono:
Data Owner e Data Steward: sono le figure responsabili di definire la semantica di dominio e le regole di business relative alla qualità dei dati.
Data Product Owner: sono i responsabili dei data product che espongono gli asset dati aziendali al consumo da parte degli utilizzatori. In quanto tali, sono responsabili di garantire l’implementazione dei controlli sui data product che gestiscono, per dare evidenza agli utenti delle metriche di qualità dei dati esposti.
Data Custodian: figura appartenente al team che gestisce un data product o al team di Data Quality, a cui il Data Product Owner delega le attività di monitoraggio operativo delle metriche di qualità sui dati esposti.
Data Quality Expert: figura che lavora nell’ambito della Data Governance, specializzata nella definizione di politiche, standard e buone pratiche per assicurare la gestione efficace della qualità dei dati
Platform Engineer: figura che lavora nel team che sviluppa i servizi condivisi, tra cui quelli per l’implementazione del framework di data quality, offerti come parte della piattaforma a supporto degli sviluppatori e degli utenti.

I processi principali che contribuiscono a misurare, monitorare e riportare lo stato di qualità dei dati sono:
Processo di definizione delle regole di governance, in cui si definiscono i protocolli, le tecnologie, gli standard e le regole comuni con cui devono essere implementati i controlli di qualità in tutta l’organizzazione.
Processo di ingegnerizzazione della piattaforma, in cui si sviluppano e si mettono in opera i servizi standard condivisi (librerie, strumenti tecnologici, altri moduli software) per facilitare l’implementazione dei controlli, la misurazione, il monitoraggio e il reporting delle metriche di qualità.
Processo di modellazione della conoscenza, in cui si definiscono le aspettative degli stakeholder e le regole di business che fanno da riferimento per la verifica della qualità dei dati.
Processo di sviluppo dei data product, in cui si implementano i controlli che permettono di misurare le metriche di qualità sugli asset dati esposti dai prodotti.
Processo di gestione delle problematiche, in cui si interviene per analizzare e rimuovere la causa radice dei problemi di qualità emersi nei dati.

L’esecuzione dei processi descritti viene fatta in allineamento con le politiche e gli standard definiti a livello di Data Governance. Questo aspetto è fondamentale nelle architetture modulari, in quanto garantisce l’interoperabilità dei controlli di qualità dei dati e un’interpretazione consistente delle metriche monitorate.

Tecnologie

L’implementazione dei controlli di qualità e il monitoraggio delle metriche su larga scala richiede il supporto di adeguati strumenti tecnologici.

Le metriche di data quality sono metadati di runtime che rientrano nell’insieme più ampio dei segnali di observability (questi ultimi comprendono anche i log applicativi e infrastrutturali, le metriche di runtime di utilizzo delle risorse e le tracce delle richieste utente). Per questo motivo è conveniente adottare protocolli e librerie standard di observability per gestire la generazione e la trasmissione dei segnali.

Gli strumenti necessari per misurare, monitorare e riportare lo stato della qualità dei dati in un’architettura distribuita sono i seguenti:

Libreria che offre una galleria di controlli di qualità dei dati implementati in modo standard, estendibile. Spesso viene implementato in forma di sidecar all’interno dei data product. L’esecuzione dei controlli genera le metriche di qualità dei dati.

Strumento che offre le risorse computazionali per l’esecuzione dei controlli di qualità dei dati implementati mediante la libreria scelta.

Insieme di protocolli e moduli software per tradurre le metriche di qualità dei dati in forma di segnali di observability e aggregarli all’interno della piattaforma aziendale condivisa.

Tecnologia che permette di rappresentare i semafori di qualità dei dati calcolati sulla base delle metriche misurate e di visualizzare l’andamento delle stesse nel tempo. Consente inoltre l’integrazione delle metriche di qualità con le altre tipologie di metadati utili per essere mostrati nel marketplace dei data product.

Cruscotti

Esempio di visualizzazione dei semafori di qualità dei dati su base temporale

Strategia e Modello Operativo

Per massimizzare l’efficacia dei risultati, è consigliabile inserire l’implementazione della qualità dei dati nel contesto di una strategia dati e AI complessiva. Questo permette di gestire in modo armonico l’intero portafoglio di attività in ambito dati e AI, definire priorità coerenti con il valore che si vuole offrire in base alle necessità dell’organizzazione.

Inoltre, una gestione integrata delle attività di data quality con il resto del portafoglio strategico consente di sfruttare il lavoro in corso d’opera su altri programmi (ad esempio quello di costruzione di una piattaforma per il miglioramento dell’esperienza di utenti e sviluppatori) anche a supporto delle finalità di qualità dei dati.

Nelle organizzazioni complesse i modelli operativi adottati sono solitamente decentralizzati e federati. Pertanto, diversi gruppi di lavoro sono coinvolti in un sottoinsieme delle attività che concorrono all’implementazione della qualità dei dati. Di conseguenza, è fondamentale tenere il coordinamento operativo e strategico delle attività in modo da facilitare il lavoro sinergico dei vari gruppi verso lo sviluppo di soluzioni di qualità, che rispettino le aspettative degli utenti.

Vista la complessità dell’implementazione della qualità dei dati, specialmente nei casi in cui è necessario sanare un volume importante di soluzioni dati esistenti, è opportuno adottare un approccio incrementale e iterativo, che mira ad intervenire per priorità nel sanare i problemi di qualità più critici sugli asset dati che presentano un rischio maggiore per l’uso che ne viene fatto.

Percorso completo

Quantyca supporta i clienti nel percorso necessario per impostare con successo l’implementazione di un framework di data quality, che prevede le seguenti fasi:

1. Assessment stato as-is
Valutazione ad alto livello dello stato di qualità degli asset dati e selezione di quelli più a rischio, identificazione delle principali cause radice dei problemi.
2. Progettazione del framework
Definizione di politiche, standard e strumenti da adottare per implementare azioni preventive e correttive e misurare le metriche di monitoraggio della qualità dei dati.
3. Implementazione pilota
Supporto agli esperti di dominio per la definizione delle regole di data quality su un perimetro campione, sviluppo e messa in opera dei servizi di piattaforma a supporto della misurazione, del monitoraggio e del reporting della qualità dei dati, implementazione dei controlli sugli asset dati, supporto agli owner dei processi e dei sistemi per l’introduzione di misure preventive.
4. Monitoraggio ed estensione
Supporto ai responsabili della qualità dei dati nel monitoraggio dei risultati e nella pianificazione degli interventi delle iterazioni successive per migliorare ulteriormente la qualità complessiva.

Vantaggi

Un’implementazione strutturata della qualità dei dati in funzione dei casi d’uso permette di:

Favorire l’utilizzo dei dati
Mettere a disposizione dati di qualità certificata e costantemente monitorata in modo trasparente aumenta la fiducia degli utenti nell’utilizzarli come elemento centrale per indirizzare il business
Ridurre i rischi per l’azienda
Garantire che la qualità degli asset dati contribuisce a mitigare l’esposizione dell’azienda di fronte al rischio di decisioni errate, inefficienze operative e cattiva reputazione verso l’esterno
Migliorare i risultati dell’intelligenza artificiale
Mettere a disposizione asset dati di qualità contribuisce a rendere più efficace l’introduzione dell’intelligenza artificiale per efficientare i processi chiave dell’organizzazione

Use Case

Resources

Podcast
Video
Free
21/01/2026

Quantyca Podcast: Data Quality: tra Intelligenza Artificiale ed Errori Reali

Contattaci!

Questo campo serve per la convalida e dovrebbe essere lasciato inalterato.

Entra a far parte del team Quantyca, facciamo squadra!

Siamo sempre alla ricerca di persone di talento da inserire nel team, scopri tutte le nostre posizioni aperte.

VEDI TUTTE LE POSIZIONI APERTE