La rivoluzione della RAG: cosa ci aspetta?

La retrieval-augmented generation (RAG) offre la possibilità di ottenere risposte da fonti affidabili in pochi secondi, e la sua promessa è più vicina di quanto pensiamo, spiegano Patrick Meyer, Artificial Intelligence Senior Architect e Technical Director presso Sopra Steria UK, e Clément Benesse, Senior AI Researcher di opsci.ai.
| minuti di lettura

Immagina un medico di fronte a una diagnosi complessa e urgente. Ha accesso a migliaia di studi scientifici, referti medici, cartelle cliniche e appunti personali. Eppure, districarsi in tempo utile in questa mole di informazioni è impossibile. 

Ora immagina un assistente capace di filtrare istantaneamente i dati più rilevanti e fornire una risposta precisa, documentata e concisa in pochi secondi. Lontano dalla fantascienza, questa è la promessa della retrieval-augmented generation (RAG)

Dalle supposizioni alle risposte fondate: come la RAG potenzia gli LLM 

I Large Language Models (LLMs) sono spesso criticati per la loro incoerenza. A volte forniscono risposte precise come un bisturi; altre volte inventano contenuti. Probabilmente anche tu hai avuto la sensazione che ChatGPT risponda senza davvero comprendere l’argomento. Questo accade perché gli LLMs non comprendono il significato in modo diretto: identificano relazioni statistiche tra le parole e cercano di indovinare la giusta sequenza di termini, con risultati variabili. 

La RAG risolve questo problema ancorando l’output del modello a fonti fattuali ed esterne. L’LLM genera comunque la risposta, ma deve basarsi sulle fonti disponibili. «La RAG combina due elementi essenziali: ricerca e generazione di risposte» spiega Patrick Meyer, Artificial Intelligence Senior Architect & Technical Director di Sopra Steria UK. «Integra la conoscenza interna di un’azienda nella comprensione generale di un modello linguistico per rispondere alle domande». 

In pratica, la RAG recupera informazioni dai database aziendali e poi utilizza un modello linguistico per generare la risposta. Come afferma Meyer: «I modelli RAG sono come motori di ricerca avanzati». 

«Quando navighi su un sito web puoi cercare informazioni esplorando le pagine o ponendo una domanda diretta. Con la RAG, dove la G sta per generation, puoi ottenere un riassunto o addirittura una risposta immediata, risparmiando molto tempo» aggiunge. 

Precisione, versatilità e affidabilità: i vantaggi fondamentali della RAG  

La RAG è semplice ed efficace: produce risposte concise, contestualizzate e tracciabili, che consentono decisioni rapide. «Uno dei vantaggi è che la RAG non richiede una potenza di calcolo straordinaria, a differenza del fine-tuning» osserva Clément Benesse, Senior AI Researcher di opsci.ai. «Inoltre, la RAG conserva tutte le funzionalità degli LLM, dal prompt engineering alla formattazione delle risposte, fino allo stile, aggiungendo però conoscenza modulare». 

La RAG è anche estremamente versatile. Può essere applicata a qualsiasi ambito aziendale: dal customer support alla finanza, fino alle risorse umane e oltre. Sopra Steria ha già circa cinquanta clienti in tutto il mondo che la stanno sperimentando, e la utilizza internamente per gestire richieste basate sui propri materiali di riferimento. 

L’affidabilità emerge dalla capacità del metodo di collegare le risposte direttamente alle proprie fonti. Come spiega Meyer: «A differenza di un modello linguistico addestrato sull’intera documentazione, che non è in grado di specificare da dove provengano le informazioni, la RAG include un componente di retrieval che preserva la fonte. Sai esattamente da dove arriva l’informazione». 

E, basando le risposte su dati fattuali, la RAG riduce le allucinazioni. «La RAG può prevenire le allucinazioni causate da informazioni obsolete» aggiunge. «Se dico albero, la maggior parte delle persone immagina un tronco con delle foglie, ma un matematico pensa a un decision tree e un meccanico a un albero a camme. Questa ambiguità porta facilmente ad allucinazioni se il sistema sceglie l’interpretazione sbagliata». 

Lavorare entro i limiti: il ruolo dell’utente e i confini della RAG 

Il successo della RAG dipende da come gli utenti formulano le proprie domande e da come i dati sono strutturati ed etichettati. In alcuni casi, infatti, non è in grado di rispondere se la domanda esce dal suo ambito. 

«Il limite arriva dall’utente» osserva Meyer. «Con ChatGPT puoi chiedere qualsiasi cosa, perché il modello contiene già tutte le informazioni al suo interno. La RAG invece deve recuperare i dati e richiede un prompt allineato a come si vuole ottenere la risposta. Non può inventare informazioni, quindi non è in grado di affrontare tutte le domande». 

La RAG, inoltre, limita deliberatamente la portata di un LLM indirizzando l’informazione disponibile, in pratica, imbrigliando il modello. «Se la RAG è implementata male, può produrre informazioni che non sono scorrette in sé, ma non risultano davvero utili» spiega Benesse. «È come consegnare a un analista il promemoria sbagliato: i risultati si danneggiano o il processo rallenta. Fortunatamente, questa pipeline è relativamente ben definita e i problemi di solito derivano più dalla scarsa qualità dei documenti di origine che da difetti del sistema». 

Abbracciare la complessità: dalla multimodalità alla sovranità linguistica 

Integrare diversi tipi di documenti, testo, immagini e video, all’interno di un unico modello linguistico e farli coesistere in modo produttivo rimane una sfida significativa. 
«Oggi le informazioni sono sparse tra testi, immagini e video» spiega Benesse. «La difficoltà sta nel riunire tutto in uno spazio di rappresentazione unificato, così che il sistema possa collegare un passaggio di testo a un frammento di immagine. Tecniche come gli embedding compositi e i knowledge graph offrono prospettive molto promettenti». 

Assicurarsi che i modelli rappresentino diverse lingue e culture è altrettanto complesso, soprattutto quando si tratta di affrontare bias linguistici e culturali. «I modelli sono addestrati per circa il 90% su input in inglese, provenienti principalmente da Internet, e questo porta a bias» avverte Meyer. «I Paesi più piccoli sono quasi assenti, e questo solleva seri problemi di sovranità». 

Un futuro collaborativo: sistemi SMA e la prossima generazione di AI 

Guardando avanti, i nostri due esperti immaginano un futuro in cui più modelli specializzati collaborano senza soluzione di continuità, offrendo velocità, accuratezza ed efficienza paragonabili ai migliori modelli linguistici di oggi. 

«Il futuro è nei sistemi che eguagliano la velocità e la precisione dei migliori LLM come ChatGPT» afferma Meyer. «Credo che lo vedremo con i sistemi SMA. L’idea è avere diversi modelli che lavorano insieme: un agente analizza la richiesta e la scompone, un altro smista i compiti a modelli specializzati e così via. In pratica, una serie di piccoli modelli esperti che collaborano». 

Benesse concorda: «Negli ultimi anni il trend è stato quello di creare modelli sempre più grandi, con costi computazionali enormi. Ma non dobbiamo necessariamente affidarci a un unico modello generalista per gestire ogni richiesta. I sistemi SMA imitano la struttura di un’azienda, con team specializzati, strategia, ingegneria, sviluppo prodotto, comunicazione, così da ridurre l’uso di risorse. È una delle migliori opzioni attuali per garantire maggiore spiegabilità e frugalità». 


Contenuto originale pubblicato il 24 Giugno 2025: RAG’s Revolution: What comes next?

 

____________________________________________________

 

Vuoi ricevere i nostri aggiornamenti sul mondo della tecnologia e suggerimenti su come digitalizzare il tuo business?

ISCRIVITI ALLA NOSTRA NEWSLETTER  

Search

ai

Articoli Correlati

Potenziare il business attraverso i dati è realmente possibile?

L’applicazione di algoritmi predittivi è oggi alla base della digital trasformation e spesso ci troviamo a gestire informazioni di cui però non sappiamo bene cosa significano o come vanno usate. Se i dati rappresentano il petrolio dei nostri tempi, siamo noi realmente sicuri di saperli raffinare adeguatamente?

Le sfide dell'ottimizzazione della Supply Chain nel (Fresh) Food Retail

Le moderne strategie dei Retailer in ambito (Fresh) Food si devono confrontare con un’ efficiente gestione della Supply Chain.
L’approccio end-to-end integrato e l’uso delle più moderne tecniche di calcolo sembrano essere le strade più promettenti.

 

La realtà tra Virtuale e Aumentata

Vivremo e lavoreremo tutti nel Metaverso? Come le aziende di servizi che si basano sui branch office si trasformeranno?

Si stagliano nel panorama della trasformazione digitale due visioni tecnologiche contrapposte: da un lato la realtà virtuale dall’altra quella aumentata.