Retrieval Augmented Generation (RAG) ist eine Technik zur Verarbeitung natürlicher Sprache (NLP), die die Stärken von abfragebasierten und generativen Modellen der künstlichen Intelligenz (KI) kombiniert. RAG KI kann genaue Ergebnisse liefern, die bereits vorhandenes Wissen optimal nutzen. Sie kann dieses Wissen aber auch verarbeiten und konsolidieren, um einzigartige, kontextbezogene Antworten, Anweisungen oder Erklärungen in menschenähnlicher Sprache zu erstellen, anstatt nur die abgefragten Daten zusammenzufassen.
RAG KI erweitert das Potenzial von generativer KI. Die Technik vereint die Stärken von generativer KI und abfragebasierter KI. Sie unterscheidet sich von kognitiver KI, die zum Erzielen ihrer Ergebnisse die Arbeitsweise des menschlichen Gehirns nachahmt.
RAG, kurz für Retrieval Augmented Generation, funktioniert durch die Integration abfragebasierter Techniken mit generativen KI-Modellen.
Abfragebasierte Modelle leisten hervorragende Arbeit beim Extrahieren von Informationen aus bereits vorhandenen Online-Quellen wie Zeitungsartikeln, Datenbanken, Blogs und anderen Wissensspeichern wie Wikipedia oder sogar internen Datenbanken. Allerdings können solche Modelle keine individuellen oder außergewöhnlichen Antworten liefern.
Generative Modelle hingegen können originelle Antworten generieren, die dem Kontext der gestellten Frage entsprechen. Ihre Genauigkeit kann jedoch Probleme bereiten.
Um diese relativen Schwächen bestehender Modelle zu überwinden, wurde RAG entwickelt. Sie soll deren individuelle Stärken kombinieren und ihre Nachteile minimieren.
Es wird ein Abfragemodell verwendet, um relevante Informationen aus vorhandenen Quellen in einem RAG-basierten KI-System zu finden. Im Gegensatz dazu nimmt das generative Modell die abgerufenen Informationen auf, fasst alle Daten zusammen und erstellt daraus eine kohärente und kontextgerechte Antwort.
Durch die Integration von abfragebasierten und generativen KI-Modellen liefert RAG genauere, relevantere und originellere Antworten. Gleichzeitig klingen sie, als ob sie von Menschen stammten. Das liegt daran, dass RAG-Modelle den Kontext von Abfragen verstehen und natürliche und einzigartige Antworten generieren können, indem sie das Beste aus beiden Modellen kombinieren.
Die folgenden Beispiele zeigen, wie RAG-Modelle gegenwärtig eingesetzt werden:
Cohesity steht im beginnenden Zeitalter der KI an vorderster Front, da die Cohesity-Plattform „AI-ready“ ist und RAG-basierte große Sprachmodelle (LLM) unterstützt. Der bahnbrechende Cohesity-Ansatz bietet robusten und domänenspezifischen Kontext für RAG-gesteuerte KI-Systeme. Er nutzt dazu das robuste Dateisystem der von Cohesity patentierten SnapTree- und SpanFS-Architekturen. Um dies zu erreichen, wird für die KI-Anwendung, die den Datenzugriff anfordert, zeitgerecht ein On-Demand-Index der Einbettungen bereitgestellt. Darüber hinaus werden die Daten durch die rollenbasierten Zugriffskontrollmodelle (RBAC) von Cohesity gesichert.
Cohesity Gaia nutzt RAG KI, um Inhalte in Alltagssprache zu suchen und zusammenzufassen, die interaktive Abfragen ermöglichen.
Die Cohesity Gaia RAG-Plattform akzeptiert sowohl menschliche als auch maschinelle Eingaben wie Fragen und Abfragen. Diese Eingaben werden dann mit Keywords tokenisiert, die Petabytes von Enterprise-Backup-Daten schnell auf eine kleinere Teilmenge kontextualisierter Daten herunterfiltern. Anschließend werden aus den verfügbaren Dokumenten oder Objekten die Darstellungen ausgewählt, die für die Frage oder Abfrage am relevantesten sind. Dieses Ergebnis wird zusammen mit der ursprünglichen Abfrage in ein LLM wie GPT4 gepackt, um eine kontextbezogene und menschlich klingende Antwort zu liefern. Dieser innovative Ansatz stellt sicher, dass die generierten Antworten kompetent, aktuell, vielfältig und relevant für den spezifischen Geschäftsinhalt sind.
Wenn die unternehmenseigenen Datensätze für das RAG-Modell genutzt werden können, müssen Cohesity-Kunden keine kostspielige Feinabstimmung oder ausgedehnten Trainings mithilfe riesiger Datenmengen durchführen, um LLMs beizubringen, „was sie sagen sollen“. Dies spart Zeit und Geld und reduziert die Umweltbelastung, da RAG-Modelle flexibel genug sind, um sich an schnell wachsende und sich kontinuierlich ändernde Datensätze anzupassen. Aus diesem Grund kann die Nutzung von RAG auf der Cohesity-Plattform für jede Anfrage den aktuellsten und relevantesten Kontext liefern.
Die RAG-fähige Plattform von Cohesity generiert im Vergleich zu handelsüblichen LLMs fundiertere, vielfältigere und relevantere Antworten, ohne den Datenspeicherbedarf massiv zu erhöhen. Dieser Durchbruch verschafft Unternehmen ein enormes Potenzial für weitere Innovationen im Bereich Q&A-Anwendungen ebenso wie bei den branchenspezifischen Such- und Discovery-Modellen.
Führungskräfte aus Technologie und Business werden die einmalige Gelegenheit haben, die Leistungsfähigkeit datengesteuerter Erkenntnisse zu nutzen, um die Qualität KI-gesteuerter Gespräche mit dem RAG-gesteuerten KI-System von Cohesity zu verbessern. Durch die Nutzung der leistungsfähigen Datenmanagement- und Sicherheitslösungen von Cohesity, die durch KI erweitert werden, können Unternehmen ein neues Maß an Effizienz, Innovation und Wachstum erreichen.
Weitere Informationen zu diesem Thema finden Sie in unserem E-Book zu KI.