AI
Platform Engineering
Governance
Snowflake-technologies-quantyca
Scopri

Overview

Le informazioni si manifestano in diverse forme, alcune strutturate, come tabelle e log di applicazioni, altre non strutturate come documenti di testo e contenuti multimediali. Grazie alle innovazioni in ambito AI e machine learning, sono stati sviluppati modelli di integrazione capaci di convertire vari tipi di dati in vettori, conferendo loro significato e contesto. 

I database vettoriali sono comunemente impiegati per alimentare casi di ricerca vettoriale, come la ricerca visiva, semantica e multimodale. Il processo inizia con la conversione del testo in embedding, vettori numerici che codificano la semantica e il significato delle parole. I vettori vengono poi inseriti in uno spazio multidimensionale, dove ogni dimensione rappresenta un particolare significato semantico. Tale approccio abilita la ricerca di informazioni simili attraverso la vicinanza dei punti nello spazio multidimensionale: i metodi di ricerca vettoriale stanno aprendo la strada ad innumerevoli use-case rivoluzionari ed esperienze uniche per gli utenti. 

La versatilità dei database vettoriali si manifesta attraverso svariati casi d’uso, tra cui: 

La ricerca semantica è una tecnica di data retrieval che intende utilizzare informazioni di intento dell’utente e di contesto della domanda, combinandole con una query di ricerca per costruire un insieme di risultati più rilevante e pertinente. Un motore di ricerca semantico supera la semplice corrispondenza di parole chiave utilizzando informazioni di contesto strettamente legate a ciò che l’utente cerca. 

La ricerca visuale è una tecnica che consente agli utenti di cercare informazioni utilizzando immagini al posto del testo. In altre parole, le query di ricerca verso un database possono essere immagini anziché testo o semplici keyword. 

La ricerca multimodale si propone come un nuovo approccio alla ricerca delle informazioni, pensata espressamente per gestire contemporaneamente parole chiavi, contesto semantico e dati (strutturati e destrutturati), con l’obiettivo di fornire un’esperienza di ricerca olistica, esaustiva, e totalmente personalizzata. 

I database vettoriali possono potenziare le capacità dei Large Language Model (LLM) agendo come memoria esterna. Ad esempio, possono agire come elementi tecnologici che forniscono conoscenza esterna agli LLM al fine di ridurne le allucinazioni. 

Capabilities

OpenSearch è un servizio open-source altamente scalabile e flessibile che offre funzionalità di ricerca a bassa latenza. Amazon OpenSearch Service è invece il servizio completamente gestito di AWS basato su OpenSearch, in grado di funzionare totalmente in cloud con scalabilità ed operatività elevate. In particolare, Amazon OpenSearch offre la funzionalità di database vettoriale abilitando gli use-case descritti in precedenza. 

La ricerca semantica aiuta a migliorare la rilevanza dei risultati di ricerca anche utilizzando una query in linguaggio naturale, ad esempio un testo del tipo “vorrei un vestito rosso scintillante per una festa anni ‘80”. Amazon OpenSearch è in grado di sfruttare il database vettoriale per recuperare i documenti più pertinenti alla richiesta sfruttando sia il contesto che la semantica della query. Inoltre, può integrarsi con altri servizi AWS per la costruzione degli embedding, ad esempio un modello Text-to-Embedding deployato su Amazon SageMaker o sfruttando i servizi di Amazon Titan. 

La visual search consente agli utenti di effettuare query di ricerca utilizzando contenuti multimediali ricchi di informazioni, come le immagini. La sua implementazione è simile alla ricerca semantica: si creano embedding vettoriali dalle immagini presenti nella knowledge base e si interroga il servizio OpenSearch con un vettore (codifica della query di ricerca). La differenza rispetto alla ricerca semantica sta nell’utilizzo di un modello di embedding esterno (ad esempio, una Convolutional Neural Network (CNN) hostata su Amazon SageMaker oppure un modello di Amazon Titan) per convertire le immagini in vettori. 

Amazon OpenSearch ha introdotto il supporto multimediale per la Neural Search, alleggerendo la necessità di integrazione con modelli di embedding esterni e prediligendo l’utilizzo delle API multimodali per testo e immagini fornite da Amazon Bedrock. Con il supporto multimodale, si possono effettuare interrogazioni su OpenSearch utilizzando immagini, testo o entrambi. Questa funzionalità consente di ricercare immagini descrivendone le caratteristiche visive, scoprire altre immagini simili utilizzando una knowledge base visiva, oppure combinare una ricerca ibrida di testo e immagini per trovare corrispondenze sia dal punto di vista semantico che visivo. 

La Retrieval Augmented Generation (RAG) è un metodo di AI generativa che sfrutta gli LLM per sviluppare esperienze conversazionali per gli utenti. Tuttavia, i modelli linguistici generativi, quando utilizzati in modo isolato, possono incorrere in allucinazioni, ossia situazioni in cui il modello genera risposte credibili ma fattualmente errate. Il servizio di database vettoriale fornito da Amazon OpenSearch emerge come la soluzione ideale per risolvere questa sfida, agendo come base di conoscenza esterna: mette a disposizione degli LLM una fonte di conoscenza derivata dalla trasformazione di documenti testuali in embedding, mirando a migliorare significativamente la precisione e la coerenza delle risposte. 

Partnership

In qualità di partner AWS, portiamo la nostra esperienza nei processi di gestione dei dati nel cloud, sfruttando la flessibilità, la scalabilità e l’affidabilità del servizio AWS Glue. 

I nostri servizi di consulenza: 

  • Consulenza per l’avvio di nuovi progetti Cloud Native 
  • Valutazione di soluzioni esistenti e migrazioni di piattaforme dati 
  • Progettazione e implementazione di landing zone di gestione dei dati per la gestione di più conti e più regioni 
  • Supporto nello sviluppo di pipeline di integrazione dei dati 
  • Manutenzione degli ambienti Cloud 

Use Cases

Hai bisogno di una consulenza personalizzata? Contattaci per trovare la soluzione migliore!

Questo campo serve per la convalida e dovrebbe essere lasciato inalterato.

Entra a far parte del team Quantyca, facciamo squadra!

Siamo sempre alla ricerca di persone di talento da inserire nel team, scopri tutte le nostre posizioni aperte.

VEDI TUTTE LE POSIZIONI APERTE