La génération augmentée de récupération (RAG)

prise en charge du Hero Banner

Qu’est-ce que le modèle RAG (génération augmentée de récupération) ?

Le modèle RAG (retrieval augmented generation, génération augmentée de récupération) est une technique de traitement du langage naturel (NLP) qui combine les forces des modèles d’intelligence artificielle (IA) basés sur la récupération et sur la génération. L’IA RAG peut fournir des résultats précis qui tirent le meilleur parti des connaissances préexistantes. Elle peut également traiter et consolider ces connaissances pour créer des réponses, des instructions ou des explications uniques, adaptées au contexte et rédigées dans un langage proche de celui des humains, au lieu de se contenter de résumer les données récupérées.

L’IA RAG est différente de l’IA générative en ce sens qu’elle est un sur-ensemble de l’IA générative. Le modèle RAG combine les forces de l’IA générative et de l’IA de récupération. Il est également différent de l’IA cognitive, qui imite le fonctionnement du cerveau humain pour obtenir ses résultats.

Comment fonctionne la génération augmentée de récupération (RAG) ?

RAG est l’abréviation de « Retrieval Augmented Generation ». Ce modèle fonctionne en intégrant des techniques basées sur la récupération avec des modèles d’IA générative.

Les modèles basés sur la récupération excellent dans l’extraction d’informations à partir de sources en ligne préexistantes, notamment des articles de journaux, des bases de données, des blogs et d’autres référentiels de connaissances tels que Wikipédia ou même des bases de données internes. Ces modèles ne peuvent cependant pas produire de réponses originales ou uniques.

Les modèles génératifs sont quant à eux capables de générer des réponses originales et adaptées au contexte de la question posée, mais ils peuvent manquer de précision.

Le modèle RAG a été développé pour combiner les forces respectives des modèles existants et minimiser leurs inconvénients afin de pallier ces faiblesses relatives.

Dans un système d’IA RAG, le modèle de récupération permet de trouver des informations pertinentes dans les sources d’information existantes. Le modèle génératif, quant à lui, prend les informations récupérées, synthétise toutes les données et les transforme en une réponse cohérente et adaptée au contexte. 

Quels sont les avantages de la génération augmentée de récupération ?

Le modèle RAG intègre les modèles d’IA de récupération et d’IA générative pour fournir des réponses plus précises, plus pertinentes et plus originales, tout en donnant l’impression qu’elles sont fournies par des êtres humains. En effet, les modèles RAG peuvent comprendre le contexte des requêtes et générer des réponses nouvelles et uniques en combinant le meilleur des deux modèles.

  • Plus précis – Un modèle de récupération est utilisé pour identifier les informations pertinentes à partir des sources de connaissances existantes. Les réponses originales de type humain qui sont ensuite générées sont donc basées sur des informations plus pertinentes et plus récentes qu’un modèle purement génératif.
  • Plus aptes à synthétiser l’information – En combinant les modèles de récupération et génératifs, le modèle RAG peut synthétiser des informations provenant de nombreuses sources et générer de nouvelles réponses similaires à celles d’un être humain. Ceci est particulièrement utile pour les requêtes plus complexes qui nécessitent d’intégrer des informations provenant de plusieurs sources.
  • Capables de replacer l’information dans son contexte – Contrairement aux modèles de récupération simples, le modèle RAG peut générer des réponses qui tiennent compte du contexte d’une conversation, et qui sont donc plus pertinentes.
  • Plus facile à former – Former un grand modèle de langage (LLM, large language model) basé sur le NLP pour créer un modèle d’IA générative nécessite un énorme volume de données. Les modèles RAG utilisent par ailleurs des sources de connaissances préexistantes et récupérées à l’avance. Il n’est donc pas nécessaire de trouver et d’ingérer des quantités massives de données de formation.
  • Plus efficaces – Les modèles RAG sont généralement plus efficaces que les modèles génératifs à grande échelle, car la phase de récupération initiale réduit le contexte et donc le volume de données à traiter lors de la phase de génération.

Comment la génération augmentée de récupération est-elle utilisée aujourd’hui ?

Voici quelques cas d’usage concrets des modèles RAG :

  • Améliorer l’assistance à la clientèle – Le modèle RAG peut servir à créer des chatbots ou des assistants virtuels avancés qui répondent de manière plus personnalisée et plus précise aux demandes des clients. Cela peut permettre de répondre plus rapidement, de gagner en efficacité opérationnelle et, en fin de compte, de garantir aux clients une meilleure expérience d’assistance.
  • Générer du contenu – Le modèle RAG peut permettre aux entreprises de produire des articles de blogs, des articles, des catalogues produits ou d’autres contenus en combinant ses capacités génératives et de récupération d’informations à partir de sources externes et internes fiables.
  • Réaliser des études de marché – Le modèle RAG, qui collecte des informations à partir des vastes volumes de données disponibles sur Internet (notamment les dernières nouvelles, les rapports d’études sectorielles et les publications sur les réseaux sociaux), permet aux entreprises de se tenir au courant des tendances du marché, d’analyser les activités de leurs concurrents, et ainsi de prendre des décisions plus éclairées.
  • Assister les ventes – Le modèle RAG peut servir d’assistant commercial virtuel, c’est-à-dire répondre aux questions des clients sur les articles en stock, récupérer des spécifications produits, expliquer des modes d’emploi et, plus généralement, participer au cycle d’achat. Le modèle RAG peut combiner ses capacités génératives avec des catalogues produits, des informations sur les prix et d’autres données (par exemple les évaluations des clients sur les réseaux sociaux), pour faire des recommandations personnalisées, répondre aux préoccupations des clients et améliorer l’expérience d’achat.
  • Améliorer l’expérience des employés – Le modèle RAG peut permettre aux employés de créer et de partager un référentiel centralisé de connaissances spécialisées. Le modèle RAG s’intègre aux bases de données et aux documents internes, et fournit aux employés des réponses précises aux questions qu’ils se posent sur les opérations de l’entreprise, les avantages, les processus, la culture, la structure organisationnelle etc.

Cohesity et l’IA

Cohesity est à l’avant-garde de la nouvelle ère de l’IA, car la plateforme Cohesity est « AIReady » (adaptée à l’IA) pour les LLM basés sur le modèle RAG. L’approche révolutionnaire de Cohesity s’appuie sur le système de fichiers robuste de ses architectures brevetées SnapTree et SpanFS pour fournir aux systèmes d’IA pilotés par le modèle RAG un contexte fiable et spécifique au domaine. Pour ce faire, un index des intégrations à la demande sera fourni juste à temps à l’application d’IA qui demande les données. Les données seront en outre sécurisées par les modèles de contrôle d’accès basés sur les rôles (RBAC) de Cohesity.

Cohesity Gaia utilise l’IA RAG pour rechercher et synthétiser du contenu en utilisant le langage de tous les jours pour créer des requêtes conversationnelles.

La plateforme RAG Gaia de Cohesity accepte les données saisies par l’homme ou par la machine, notamment les questions et les requêtes. Ces données sont ensuite marquées par jetons avec des mots-clés qui filtrent rapidement des pétaoctets de données de sauvegarde d’entreprise pour les réduire à un sous-ensemble de données contextualisées. Le système sélectionne ensuite, dans ces documents ou objets, les représentations les plus pertinentes par rapport à la question ou à la requête. Ce résultat est transmis, avec la requête originale, à un LLM tel que GPT4 afin de fournir une réponse contextuelle et à consonance humaine. Cette approche innovante garantit que les réponses générées sont fiables, à jour, diversifiées et pertinentes par rapport au contenu spécifique de l’entreprise.

En superposant le modèle RAG aux jeux de données de leur entreprise, les clients de Cohesity n’auront pas besoin de procéder à des ajustements coûteux ou de dispenser une formation prolongée sur de vastes volumes de données pour apprendre aux LLM « ce qu’il faut dire ». Cela permet d’économiser du temps et de l’argent, mais aussi de réduire l’impact sur l’environnement, car les modèles RAG sont suffisamment flexibles pour s’adapter à des jeux de données qui augmentent rapidement et changent constamment. Utiliser le modèle RAG sur la plateforme Cohesity permet donc de fournir le contexte le plus récent et le plus pertinent à n’importe quelle requête.

La plateforme RAG de Cohesity générera des réponses plus fiables, plus diversifiées et plus pertinentes que les LLM standard, sans augmenter les besoins en stockage de données. Cette avancée peut ouvrir la voie à de nombreuses innovations avec les applications de Q&R (questions et réponses) d’entreprise et les modèles de recherche et de découverte de l’industrie.

Grâce au système d’IA RAG de Cohesity, les responsables technologiques et les dirigeants d’entreprise auront une occasion unique d’exploiter la puissance des informations alimentées par les données pour améliorer la qualité des conversations pilotées par l’IA. Les entreprises peuvent atteindre de nouveaux niveaux d’efficacité, d’innovation et de croissance en exploitant la puissance des solutions de gestion des données et de sécurité de Cohesity, améliorées par l’IA.

Pour en savoir plus, lisez le livre électronique sur l’IA.

X
Icon ionic ios-globe

Vous êtes sur le point de visualiser du contenu en anglais, souhaitez-vous continuer ?

Ne pas afficher cet avertissement

Icon ionic ios-globe

Vous êtes sur le point de visualiser du contenu en anglais, souhaitez-vous continuer ?

Ne pas afficher cet avertissement