Le modèle RAG (retrieval augmented generation, génération augmentée de récupération) est une technique de traitement du langage naturel (NLP) qui combine les forces des modèles d’intelligence artificielle (IA) basés sur l’extraction et sur la génération. L’IA RAG peut fournir des résultats précis qui tirent le meilleur parti des connaissances préexistantes. Elle peut également traiter et consolider ces connaissances pour créer des réponses, des instructions ou des explications uniques, adaptées au contexte et rédigées dans un langage proche de celui des humains, au lieu de se contenter de résumer les données extraites. L’IA RAG est différente de l’IA générative en ce sens qu’elle est un sur-ensemble de l’IA générative. Le modèle RAG combine les forces de l’IA générative et de l’IA d’extraction. Il est également différent de l’IA cognitive, qui imite le fonctionnement du cerveau humain pour obtenir ses résultats.
RAG est l’abréviation de « Retrieval Augmented Generation ». Ce modèle fonctionne en intégrant des techniques basées sur l’extraction avec des modèles d’IA générative. Les modèles basés sur l’extraction excellent dans l’extraction d’informations à partir de sources en ligne préexistantes, notamment des articles de journaux, des bases de données, des blogs et d’autres référentiels de connaissances tels que Wikipédia ou même des bases de données internes. Ces modèles ne peuvent cependant pas produire de réponses originales ou uniques. Les modèles génératifs peuvent quant à eux générer des réponses originales et adaptées au contexte de la question posée, mais ils peuvent avoir du mal à être très précis. Le modèle RAG a été développé pour combiner les forces respectives des modèles existants et minimiser leurs inconvénients afin de pallier ces faiblesses relatives. Dans un système d’IA RAG, le modèle d’extraction permet de trouver des informations pertinentes dans les sources d’information existantes, tandis que le modèle génératif prend les informations extraites, synthétise toutes les données et les transforme en une réponse cohérente et adaptée au contexte.
Le modèle RAG intègre les modèles d’IA d’extraction et d’IA générative pour fournir des réponses plus précises, plus pertinentes et plus originales, tout en donnant l’impression qu’elles sont fournies par des êtres humains. En effet, les modèles RAG peuvent comprendre le contexte des requêtes et générer des réponses nouvelles et uniques en combinant le meilleur des deux modèles. Ce faisant, les modèles RAG sont :
Voici quelques cas d’usage concrets des modèles RAG :
Cohesity est à l’avant-garde de la nouvelle ère de l’IA, car la plateforme Cohesity est « AI Ready » (adaptée à l’IA) pour les LLM basés sur le modèle RAG. L’approche révolutionnaire de Cohesity s’appuie sur le système de fichiers robuste de ses architectures brevetées SnapTree et SpanFS pour fournir aux systèmes d’IA pilotés par le modèle RAG un contexte fiable et spécifique au domaine. Pour ce faire, un index des intégrations à la demande sera fourni juste à temps à l’application d’IA qui demande les données. Les données seront en outre sécurisées par les modèles de contrôle d’accès basés sur les rôles (RBAC) de Cohesity.
La plateforme RAG de Cohesity qui est actuellement en cours de développement accepte les données saisies par l’homme ou par la machine, notamment les questions et les requêtes. Ces données sont ensuite marquées par jetons avec des mots-clés qui filtrent rapidement des pétaoctets de données de sauvegarde d’entreprise pour les réduire à un sous-ensemble de données contextualisées. Le système sélectionne ensuite, dans ces documents ou objets, les représentations les plus pertinentes par rapport à la question ou à la requête. Ce résultat est transmis, avec la requête originale, à un LLM tel que GPT4 afin de fournir une réponse contextuelle et à consonance humaine. Cette approche innovante garantit que les réponses générées sont non seulement fiables et à jour, mais aussi diversifiées et pertinentes par rapport au contenu spécifique de l’entreprise.
En superposant le modèle RAG aux jeux de données de leur entreprise, les clients de Cohesity n’auront pas besoin de procéder à des ajustements coûteux ou de dispenser une formation prolongée sur de vastes volumes de données pour apprendre aux LLM « ce qu’il faut dire ». Cela permet d’économiser du temps et de l’argent, mais aussi de réduire l’impact sur l’environnement, car les modèles RAG sont suffisamment flexibles pour s’adapter à des jeux de données qui augmentent rapidement et changent constamment. Utiliser le modèle RAG sur la plateforme Cohesity permet donc de fournir le contexte le plus récent et le plus pertinent à n’importe quelle requête.
La plateforme RAG de Cohesity générera des réponses plus fiables, plus diversifiées et plus pertinentes que les LLM standard, sans augmenter les besoins en stockage de données. Cette avancée peut ouvrir la voie à de nombreuses innovations avec les applications de Q&R (questions et réponses) d’entreprise et les modèles de recherche et de découverte de l’industrie.
Grâce au système d’IA RAG de Cohesity, les responsables technologiques et les dirigeants d’entreprise auront une occasion unique d’exploiter la puissance des informations alimentées par les données pour améliorer la qualité des conversations pilotées par l’IA. Les entreprises peuvent atteindre de nouveaux niveaux d’efficacité, d’innovation et de croissance en exploitant la puissance des solutions de gestion des données et de sécurité de Cohesity, améliorées par l’IA.
Pour en savoir plus, lisez le livre électronique sur l’IA.