KI in Unternehmen RAG
KI in Unternehmen RAG

RAG neu denken: Ein neuer Ansatz zur Nutzung von Kontext für KI in Unternehmen

Gastbeitrag von
Image_Capa
Francisco Capa, Data Enginer COCUS

Ein Umdenken bei der Anwendung von Retrieval-Augmented Generation (RAG) kann neue Ebenen für KI in Unternehmen erschließen, die sowohl praktisch als auch leistungsfähig sind: Das Konzept RAG vereinfacht richtig umgesetzt nicht nur Prozesse, sondern bietet Unternehmen auch Kosteneffizienz und maximiert den Nutzen von vorhandenen Daten. Welche attraktiven Optionen RAG für eine Vielzahl von Anwendungen bietet, erfährst du hier.

Was ist Retrieval-Augmented Generation (RAG)?

Retrieval-Augmented Generation (RAG) ist ein Konzept, das viele von uns bereits verwendet haben, ohne es bewusst wahrzunehmen. Wenn du jemals ein Large Language Model (LLM) wie ChatGPT oder Gemini genutzt hast und ihm vor deiner Frage spezifischen Kontext gegeben hast, hast du eine Form von RAG genutzt. Im Kern geht es bei RAG darum, einem LLM Kontext oder zusätzliche Informationen zu liefern, um dessen Antworten zu leiten und zu verfeinern.

Zum Beispiel könntest du ChatGPT 3.5 als LLM verwenden und es mit folgender einfacher Eingabe testen: „Schreibe einen kleinen Absatz über Quantenphysik“. Die Antworten sind auf 50 Wörter beschränkt, um es übersichtlich zu halten. Das Modell liefert dir wie erwartet eine standardmäßige, informative Antwort.

„Die Quantenphysik ist der Wissenschaftszweig, der sich mit den kleinsten Teilchen im Universum, wie Atomen und Photonen, beschäftigt. Sie zeigt, wie sich diese Teilchen auf überraschende Weise verhalten und von den Gesetzen der klassischen Physik abweichen. Die Quantenmechanik beruht auf den grundlegenden Prinzipien, wie sich Teilchen bewegen, interagieren und die Eigenschaften der Materie hervorrufen, wobei Phänomene wie Überlagerung und Verschränkung im Vordergrund stehen.“

Aber was passiert, wenn der Kontext sich ändert? Stell dir vor, du stellst dieselbe Frage, aber mit diesem Kontext: „Das Publikum sind Kinder“. Die Antwort des LLM ist jetzt verändert, passt sich an den neuen Kontext an und versucht gleichzeitig, die Informationen genau und relevant zu halten.

„Die Quantenphysik ist wie ein magisches Regelwerk für die kleinsten Dinge im Universum, wie Atome und Lichtteilchen. Sie sagt uns, dass diese winzigen Teilchen überraschende Kunststücke vollbringen können, z. B. an zwei Orten gleichzeitig zu sein oder über große Entfernungen sofort miteinander zu sprechen, was die Welt zu einem geheimnisvollen Ort macht!“

Diese Anpassungsfähigkeit zeigt die Stärke von RAG, und sie beschränkt sich nicht nur auf Text. Das funktioniert bei fast allen Arten von LLMs – von Text-zu-Text über Text-zu-Code bis hin zu Text-zu-Bild.

Ein Beispiel: Stell dir vor, du benutzt einen KI-Bildgenerator wie DALL-E, lädst ein Bild deines Hundes hoch und bittest die Künstliche Intelligenz, ihn in eine andere Umgebung zu versetzen. Das resultierende Bild ist vielleicht nicht perfekt, aber es erkennt die Rasse und die Farbe deines Hundes und gibt dem Bild somit den gewünschten Kontext. Kontext kann also auf verschiedene Weisen geliefert werden.

RAG Dog1
RAG Dog2

Die realen Vorteile von RAG für KI in Unternehmen

Das Konzept von RAG geht über spielerische Interaktionen hinaus. Für Künstliche Intelligenz in Unternehmen kann es eingesetzt werden, um bedeutende Vorteile zu erschließen:

Während das Neutrainieren oder Fine-Tuning des Basismodells je nach Anwendungsfall sinnvoll ist, schließen sich diese Ansätze nicht mit RAG aus. Tatsächlich kann eine Kombination dieser Strategien oder die Auswahl des passendsten Ansatzes je nach Anwendungsfall zu optimalen Ergebnissen führen.

Ein praktisches Beispiel für KI in Unternehmen: Kundenservice

Um die praktische Anwendung von RAG zu veranschaulichen, nehmen wir ein einfaches Beispiel aus dem Kundenservice, wobei der Ansatz in viel komplexeren Datenmodellen angewendet werden könnte. Stell dir vor, ein Kunde fragt ein Sprachmodell, wann seine nächste Zahlung fällig ist (das könnte über einen einfachen Text-Chat oder ein komplexeres Sprache-zu-Text-System geschehen). Wie könnte das Modell das wissen?

Eine Möglichkeit wäre, das Modell auf die Vertragsdaten jedes Kunden zu trainieren. Das würde jedoch häufiges Neutrainieren erfordern und könnte sehr schnell sehr teuer werden. Ein effizienterer Ansatz ist die Verwendung von RAG – das Modell wird mit den relevanten Vertragsdetails aus einer externen Quelle (z. B. einer SQL-Datenbank) in Echtzeit versorgt, sodass es die Frage genau beantworten kann. Allerdings gibt es bei diesem Ansatz eine Herausforderung: Wie bestimmen wir, welche spezifischen Daten das Modell benötigt?

Ein neuer Ansatz: Geschichtetes RAG

Die Lösung besteht darin, eine semantische Suche zu verwenden, um die Daten zu filtern, bevor sie dem Modell zugeführt werden. Dieser Prozess umfasst die Umwandlung sowohl der Datenpunkte als auch der Anfrage in Modell-Einbettungen, gefolgt von einer semantischen Suche, um die relevantesten Informationen zu identifizieren. Während das effektiv ist, kann diese Methode zu einem Engpass werden, besonders wenn es um strukturierte Daten geht, die aufgrund ihres Formats leicht gefiltert werden können. Hier kommt ein anderer Ansatz ins Spiel – eine geschichtete RAG-Strategie:

Anstatt sich ausschließlich auf semantische Suche zu verlassen, kann dieser Schritt übersprungen werden, indem direkt auf das strukturierte Schema der Daten zugegriffen wird. Indem du dem LLM das Schema als Kontext gibst, kannst du es bitten, die nötigen Datenpunkte zu identifizieren, die zur Beantwortung der Frage benötigt werden. Sobald diese identifiziert sind, fragst du die externen Datenquellen ab, lieferst den relevanten Kontext und lässt das Modell die endgültige Antwort generieren.

Auf diese Weise verwendest du RAG, um die nächste Ebene von RAG zu füttern. Das funktioniert jedoch nur, wenn die Datenstruktur vor der Frage bekannt ist – bei Kontexten wie Bildern oder Dokumenten funktioniert dieser Ansatz nicht, da die Datenstruktur in diesen Fällen unbekannt ist.

Rückkehr zum Kundenservice-Beispiel: Vorteile von RAG für KI in Unternehmen

Nehmen wir das Kundenservice-Beispiel noch einmal auf. Angenommen, ein Kunde fragt nach dem Fälligkeitsdatum seiner nächsten Zahlung. Anstatt eine semantische Suche in einer großen Menge unstrukturierter Daten durchzuführen, könnten wir dem Modell erklären, dass unsere Datenbank mehrere strukturierte Tabellen enthält.

Das Modell könnte dann bestimmen, dass es Informationen aus den Tabellen „Vertrag“ und „Transaktionen“ benötigt. Wir fragen diese Tabellen ab, liefern die relevanten Datenpunkte, und das Modell antwortet entsprechend. Dieser Ansatz ist unkompliziert, kosteneffektiv und gut geeignet für Geschäftsanwendungen, bei denen strukturierte Daten verwendet werden.

RAG erfolgreich für KI-Lösungen einsetzen

RAG bietet der Integration von LLMs in Unternehmensabläufe erhebliches Potenzial, um Effizienz und Genauigkeit in KI-gestützten Lösungen zu verbessern. Wir unterstützen dein Unternehmen, die Implementierung effizient, sicher und kosteneffektiv zu gestalten und sorgen dafür, dass das volle Potenzial deiner Daten ausgeschöpft wird.

Connecting Data –
Empowering Innovation

Diesen Beitrag teilen