AI
Platform Engineering
Governance
Quantyca Technologies banner
Scopri
Overview

Lo streaming di dati, a differenza dei paradigmi di integrazione basati su flussi batch o API che si concentrano prevalentemente sullo stato delle entità di business trattate, si concentra sulla raccolta, gestione e scambio di eventi tra applicazioni e sistemi.

Un evento descrive un cambiamento che è avvenuto, in uno specifico momento nel tempo, nello stato di un’entità di interesse. Poiché a partire dagli eventi di modifica è sempre possibile ricostruire lo stato di un’entità, i sistemi di streaming permettono di trasferire in modo asincrono e altamente scalabile lo stato delle applicazioni tra i sistemi interessati.

Kafka è una delle piattaforme più utilizzate al mondo per gestire dati in streaming e realizzare integrazioni di dati in real time. La piattaforma Confluent, la cui società è stata fondata dai creatori di Kafka, ne espande i vantaggi con funzionalità di livello enterprise riducendo il TCO e facilitando gestione e utilizzo.


Riteniamo fondamentale valutare la componente real-time sin dall’inizio nella realizzazione di nuovi use case, infatti da questa si possono sempre derivare subset e snapshot di dati per le diverse tipologie di consumo, siano esse in real-time o batch. Al contrario un flusso di dati gestito in modalità batch non potrà produrre in uscita un flusso continuo di dati. Questa tipologia di flussi viene privilegiata perchè solitamente si ha la percezione che realizzare flussi in real-time sia più complesso della gestione di batch di dati, ignorando però che la loro futura evoluzione (che può essere richiesta in seguito a un cambio di requisiti) tipicamente richiede effort e costi superiori rispetto ad un ulteriore sforzo iniziale per il trattamento di stream di dati.

La maggior velocità nelle integrazioni garantita dalle architetture basate sullo streaming fornisce un importante vantaggio competitivo in termini di soddisfazione degli utenti ed efficacia delle azioni intraprese a fronte di ciò che accade. La nostra concezione delle streaming platform non prevede soltanto la loro alimentazione da parte delle fonti dati operazionali per il consumo da parte di sistemi operazionali e analitici, caso d’uso standard, ma è aperta anche alla raccolta di informazioni da sistemi analitici (ad esempio raccogliendo l’output di un modello di machine learning) e alla loro propagazione verso i sistemi operazionali.

Si pensi a titolo di esempio a quanto sia importante, in uno scenario omnicanale, poter allineare in tempo reale negozio fisico ed e-commerce o fornire raccomandazioni personalizzate al cliente quando è ancora in negozio o sul sito e non il giorno dopo oppure ancora a individuare le frodi contestualmente alle transazioni bancarie e non a posteriori.

La Piattaforma Confluent

La piattaforma Confluent vede alle sue fondamenta Apache Kafka, la piattaforma più popolare di streaming distribuito open source. Le sue funzionalità chiave sono:
– Produzione e consumo di stream di eventi
– Stoccaggio affidabile e scalabile di informazioni
– Confluent ha costruito attorno ad Apache Kafka una piattaforma capace di supportare tutte le esigenze delle organizzazioni che operano con stream di eventi. La soluzione si presenta in due vesti:
– Confluent Platform, per deployment on-premise o su public cloud
– Confluent Cloud, con servizi fully-managed

Ogni rilascio della piattaforma Confluent fa uso della versione più aggiornata di Apache Kafka e di tutti i servizi integrati che vi si interfacciano. Alcune features della piattaforma sono utilizzabili liberamente dalla community, altre sono sotto licenza commerciale.


Tra i principali vantaggi per cui scegliere di adottare la piattaforma Confluent:

Incremento della produttività
abilita una gamma più ampia di sviluppatori all’utilizzo di Kafka e accelera la velocità di creazione di applicazioni di streaming
Maggiore efficienza delle attività operative
riduce la complessità operativa garantendo prestazioni elevate e scalabilità al crescere del volume di eventi gestiti
Facilità di integrazione in ambienti complessi
permette di utilizzare Kafka rispettando vincoli e requisiti chiave in un ambiente di produzione aziendale
Libertà di scelta
Possibilità di utilizzare Kafka a livello enterprise in qualsiasi ambiente sia esso on-premise, in cloud (gestito e non) o ibrido
Supporto
Oltre al supporto Confluent incluso nella piattaforma, si ha a disposizione una vasta community di esperti
Ampia gamma di feature
Strumenti avanzati ed esclusivi per la gestione di dati, metadati e applicazioni

Confluent Platform

L’edizione della piattaforma Confluent per il provisioning su public cloud o on-premise.

Le funzionalità chiave della piattaforma sono:

  • Raccolta e distribuzione di eventi
  • Selezione e trasformazione di eventi
  • Validazione e versionamento degli eventi

Confluent Cloud

L’edizione SaaS fully managed della piattaforma Confluent realizzata appositamente per sfruttare a pieno tutte le potenzialità del cloud. Oltre a coprire le funzionalità offerte dalla versione Platform offre una serie di vantaggi aggiuntivi tra cui:

  • Possibilità di scegliere tra i tre principali cloud provider (AWS, Azure e GCP)
  • Più di 70 connettori fully managed per facilitare la gestione delle integrazioni riducendo il TCO
  • Scaling elastico e on-demand delle risorse – eliminando i classici effort di sizing up-front per soluzioni self-managed
  • Storage disaccoppiato dalla computazione e scalabile in modo automatico e senza limiti – attraverso lo sfruttamento dei cloud object store
  • Resilienza con 99,99% SLA e replica multizona
  • Aggiornamenti automatici e trasparenti

La piattaforma offre diverse possibilità per la gestione dell’infrastruttura. La soluzione Confluent Cloud elimina del tutto questa responsabilità offrendo una soluzione SaaS, mentre per la Confluent Platform si hanno a disposizione le seguenti opzioni:

A supporto dello sviluppo di applicazioni in real-time si possono trovare diversi strumenti tra cui:

    • Kafka Stream e ksqlDB per applicazioni e microservizi che si interfacciano con il cluster Kafka
    • Stream Designer per sviluppare attraverso una UI user-friendly in modalità drag & drop
    • REST Proxy per consentire la gestione del cluster attraverso l’esposizione di REST API

Portugal está rapidamente se tornando um destino atraente para os jogadores de cassino online. Com a crescente popularidade dos jogos de azar online, não é de admirar que o país tenha visto um aumento no número de cassinos que estão surgindo. Os jogos de cassino online em Portugal cresceram exponencialmente nos últimos anos e não mostram sinais de desaceleração. Com um número cada vez maior de casinos online no país, os jogadores portugueses têm muitas opções quando se trata de encontrar um casino online para jogar. Portugal tem uma longa e orgulhosa história de jogos, e os portugueses amam seus cassinos online tanto quanto amam seus cassinos terrestres. A indústria do jogo online em Portugal é fortemente regulamentada, e todos os casinos online devem ser licenciados e aderir às leis e regulamentos estabelecidos pelas autoridades portuguesas de jogo. Todos os casinos online portugueses devem estar registados no Serviço de Regulação e Inspeção de Jogos (SRIJ), o regulador português de jogos de azar, e devem cumprir os rigorosos padrões do regulador. Leia mais sobre isso na revisão sobre o melhor casinos em Portugal em 2023. Os casinos online portugueses oferecem aos jogadores uma impressionante seleção de jogos e oportunidades de jogo, incluindo slots, jogos de mesa, video poker, jogos com dealer ao vivo e muito mais. Com uma ampla seleção de jogos, os jogadores podem desfrutar do melhor dos dois mundos quando se trata de jogos de azar: a emoção da experiência terrestre combinada com a conveniência de jogar online. A indústria portuguesa de jogos de azar online também abriga alguns dos maiores e mais prestigiados sites de jogos de azar online do mundo.

La semplificazione della gestione della piattaforma è sicuramente un aspetto differenziale rispetto all’utilizzo di versioni open o di altri vendor ed è resa possibile da una serie di strumenti tra cui:

  • il Control Center , interfaccia web da cui si possono svolgere le principali operazioni di gestione e monitoraggio del cluster Kafka
  • il servizio Confluent Health+, che analizza le metriche del cluster Kafka e produce alert intelligenti per segnalare potenziali problemi insieme ad alcune funzioni di monitoraggio avanzato
  • la Confluent CLI con cui si possono svolgere tutti i task di amministrazione
  • il Tiered Storage , che permette l’offloading automatico basato su retention e che sposta i dati più vecchi su object store per ridurre i costi di storage
  • i Self-Balancing Clusters dotati di rebalancing automatico delle partizioni per ottimizzare il throughput, facilitare lo scaling e ridurre gli effort di gestione
  • il Cluster Linking per la gestione di cluster Kafka distribuiti su più datacenter o region o per deployment su più cloud provider
  • i Multi-region clusters per dare la possibilità ai consumers di leggere eventi anche dai broker che non sono leader riducendo drasticamente il traffico cross-datacenter tra client e brokers
  • il Replicator per la replica di dati e metadati tra due cluster Kafka basato su Kafka Connect

Uno degli aspetti sicuramente più critici per il successo dell’architettura è una governance del dato efficace ed efficiente, e Confluent offre diversi strumenti a suo sostegno, tra cui:

  • lo Schema Registry per validazione e il versionamento degli schemi utilizzati dagli eventi che circolano nella piattaforma
  • Lo Stream Catalog, un data catalog che dà la possibilità di ricercare dati e topic in Kafka esaminando i loro schemi o i tag a essi associati
  • Lo Stream Lineage, soluzione di data lineage applicata ad applicazioni in streaming per individuare correlazioni tra stream e dati

Per quanto riguarda invece gli aspetti relativi alla sicurezza dei dati si può contare sulle seguenti feature:

Partnership

Quantyca è Premium partner di Confluent dal 2015, uno dei primi in Italia. In quanto partner certificato abbiamo potuto lavorare insieme a Confluent realizzando diverse soluzioni per i nostri clienti in diversi settori come retail, utilities, industriale, assicurativo e finanziario.

Siamo reseller della piattaforma Confluent e offriamo i seguenti servizi di consulenza:

  • Valutazione delle soluzioni esistenti
  • Progettazione e implementazione di soluzioni basate su event driven architectures
  • Avvio di nuovi progetti
  • Progettazione di soluzioni di disaster recovery e continuità aziendale
  • Progetti di migrazione da Apache Kafka alla piattaforma Confluent
  • Progetti di migrazione da Confluent Enterprise a Confluent Cloud
  • Formazione remota o in sede
+7 Anni di Partnership
Channel Manager: Pietro La Torre
+20 Progetti
Deliverati con successo
+20 Certificazioni
Confluent Certified Administrator for Apache Kafka, Confluent Certified Developer for Apache Kafka

Success stories

Use cases

Events
Replay
Onsite Event
Streaming Data Products: quando il paradigma Data Mesh incontra le Architetture Event Driven
Data e ora: 16/02/2023 09:00:00

Gestire i dati aziendali in modo efficiente è diventato sempre più complesso, soprattutto per le organizzazioni in rapida crescita. Paradigmi innovativi come il Data Mesh e le architetture basate su eventi (EDA) offrono un...

Replay
Onsite Event
Quantyca at Kafka Summit London 2022
Data e ora: 25/04/2022

Sono diverse oggi le soluzioni utilizzate per rendere disponibili in modalità real time i dati gestiti dai sistemi legacy. Rispetto alle altre, però, il Change Data Capture (CDC) è tra...

Replay
Onsite Event
Data in Motion 2022
Data e ora: 06/10/2022

Digital Integration Hub per il monitoraggio in near-real time della logistica: Il caso Arcese Abbiamo partecipato a Data in Motion, la Conference di Confluent per la prima volta in Italia:...

Replay
Online Webinar
Real-time Inventory con Kafka e Kafka Stream in Rinascente 2021
Data e ora: 25/10/2021

Le modalità di acquisto dei consumatori sono cambiate drasticamente negli ultimi anni. Recarsi nel negozio fisico non è più l’unica possibilità per effettuare acquisti al dettaglio.  I retailer si sono...

Replay
Online Webinar
Digital Integration Hub 2021
Data e ora: 07/07/2021

Temi principali In questo webinar verrà presentato il DIH come pattern architetturale in grado di disaccoppiare i sistemi legacy dai consumatori e, allo stesso tempo, rendere disponibili i dati ai...

Replay
Onsite Event
Quantyca at Kafka Summit Europe 2021
Data e ora: 11/05/2021

I sistemi legacy sono i re delle nostre architetture IT. Governano l’evoluzione dell’ecosistema tecnologico che li ospita grazie al controllo che hanno acquisito nel tempo su dati  e processi chiave. I sistemi legacy,...

Risorse

Blog
Free
09/03/2023

Streaming Data Product Lifecycle Management

Video
Subscription
26/05/2022

Digital Integration Hub – Kafka Summit London 2022

Slide
Subscription
06/10/2022

Digital Integration Hub per il monitoraggio in near-real time della logistica: il caso Arcese – Data in Motion Milan 2022

Slide
Free
07/07/2021

Digital Integration Hub – Webinar Slide Deck

Slide
Free
11/05/2021

From legacy systems to microservices and back – Kafka Summit 2021

Hai bisogno di una consulenza personalizzata? Contattaci per trovare la soluzione migliore!

Questo campo serve per la convalida e dovrebbe essere lasciato inalterato.

Entra a far parte del team Quantyca, facciamo squadra!

Siamo sempre alla ricerca di persone di talento da inserire nel team, scopri tutte le nostre posizioni aperte.

VEDI TUTTE LE POSIZIONI APERTE