Retrieval Augmented Generation (RAG) ist eine Technik zur Verarbeitung natürlicher Sprache (NLP), die die Stärken von abfragebasierten und generativen Modellen der künstlichen Intelligenz (KI) kombiniert. RAG KI kann genaue Ergebnisse liefern, die bereits vorhandenes Wissen optimal nutzen. Sie kann dieses Wissen aber auch verarbeiten und konsolidieren, um einzigartige, kontextbezogene Antworten, Anweisungen oder Erklärungen in menschenähnlicher Sprache zu erstellen, anstatt nur die abgefragten Daten zusammenzufassen. RAG KI erweitert das Potenzial von generativer KI. Die Technik vereint die Stärken von generativer KI und abfragebasierter KI. Sie unterscheidet sich von kognitiver KI, die zum Erzielen ihrer Ergebnisse die Arbeitsweise des menschlichen Gehirns nachahmt.
RAG, kurz für Retrieval Augmented Generation, funktioniert durch die Integration abfragebasierter Techniken mit generativen KI-Modellen. Abfragebasierte Modelle leisten hervorragende Arbeit beim Extrahieren von Informationen aus bereits vorhandenen Online-Quellen wie Zeitungsartikeln, Datenbanken, Blogs und anderen Wissensspeichern wie Wikipedia oder sogar internen Datenbanken. Allerdings können solche Modelle keine individuellen oder außergewöhnlichen Antworten liefern. Generative Modelle hingegen können originelle Antworten generieren, die dem Kontext der gestellten Frage entsprechen. Ihre Genauigkeit kann jedoch Probleme bereiten. Um diese relativen Schwächen bestehender Modelle zu überwinden, wurde RAG entwickelt. Sie soll deren individuelle Stärken kombinieren und ihre Nachteile minimieren. In einem RAG-basierten KI-System wird ein Abfragemodell verwendet, um relevante Informationen aus vorhandenen Informationsquellen zu finden, während das generative Modell die abgefragten Informationen aufnimmt, alle Daten synthetisiert und sie in eine kohärente und kontextbezogene Antwort umformt.
Durch die Integration von abfragebasierten und generativen künstlichen Intelligenzmodellen liefert RAG Antworten, die genauer, relevanter und origineller sind. Gleichzeitig klingen sie, als ob sie von Menschen stammten. Das liegt daran, dass RAG-Modelle den Kontext von Abfragen verstehen und natürliche und einzigartige Antworten generieren können, indem sie das Beste aus beiden Modellen kombinieren. Dadurch sind RAG-Modelle:
Die folgenden Beispiele zeigen, wie RAG-Modelle gegenwärtig eingesetzt werden:
Cohesity steht im beginnenden Zeitalter der KI an vorderster Front, da die Cohesity-Plattform „AI Ready“ RAG-basierte große Sprachmodelle (LLM) unterstützt. Der bahnbrechende Cohesity-Ansatz bietet robusten und domänenspezifischen Kontext für RAG-gesteuerte KI-Systeme. Er nutzt dazu das robuste Dateisystem der von Cohesity patentierten SnapTree- und SpanFS-Architekturen. Um dies zu erreichen, wird für die KI-Anwendung, die den Datenzugriff anfordert, zeitgerecht ein On-Demand-Index der Einbettungen bereitgestellt. Darüber hinaus werden die Daten durch die rollenbasierten Zugriffskontrollmodelle (RBAC) von Cohesity gesichert.
Die derzeit in der Entwicklung befindliche Cohesity RAG-Plattform akzeptiert sowohl menschliche als auch maschinelle Eingaben wie Fragen und Abfragen. Diese Eingaben werden dann mit Schlüsselwörtern tokenisiert, die Petabytes von Enterprise-Backup-Daten schnell auf eine kleinere Teilmenge kontextualisierter Daten herunterfiltern. Anschließend werden aus den verfügbaren Dokumenten oder Objekten die Darstellungen ausgewählt, die für die Frage oder Abfrage am relevantesten sind. Dieses Ergebnis wird zusammen mit der ursprünglichen Abfrage in ein LLM wie GPT4 gepackt, um eine kontextbezogene und menschlich klingende Antwort zu liefern. Dieser Ansatz ist innovativ und stellt sicher, dass die generierten Antworten nicht nur kompetent und aktuell, sondern auch vielfältig und relevant für den spezifischen Geschäftsinhalt sind.
Wenn die unternehmenseigenen Datensätze für das RAG-Modell genutzt werden können, müssen Cohesity-Kunden keine kostspielige Feinabstimmung oder ausgedehnte Trainings mithilfe riesiger Datenmengen durchführen, um LLMs beizubringen, „was sie sagen sollen“. Dies spart Zeit und Geld und reduziert zudem die Umweltbelastung, da RAG-Modelle flexibel genug sind, um sich an schnell wachsende und sich ständig ändernde Datensätze anzupassen. Aus diesem Grund kann die Nutzung von RAG auf der Cohesity-Plattform für jede Anfrage den aktuellsten und relevantesten Kontext liefern.
Die RAG-fähige Plattform von Cohesity generiert im Vergleich zu handelsüblichen LLMs fundiertere, vielfältigere und relevantere Antworten, ohne den Datenspeicherbedarf massiv zu erhöhen. Dieser Durchbruch bietet Unternehmen ein enormes Potenzial für weitere Innovationen im Bereich F&A (Fragen und Antworten)-Anwendungen ebenso wie bei den branchenspezifischen Such- und Entdeckungsmodellen.
Führungskräfte aus Technologie und Business werden die einmalige Gelegenheit haben, die Leistungsfähigkeit datengesteuerter Erkenntnisse zu nutzen, um die Qualität KI-gesteuerter Gespräche mit dem RAG-gesteuerten KI-System von Cohesity zu verbessern. Durch die Nutzung der leistungsfähigen Datenmanagement- und Sicherheitslösungen von Cohesity, die durch KI erweitert werden, können Unternehmen ein neues Maß an Effizienz, Innovation und Wachstum erreichen.
Weitere Informationen zu diesem Thema finden Sie in unserem E-Book zu KI.