Digitalisierung & Transformation

Retrieval-Augmented Generation

Wie externes Wissen Sprachmodelle besser macht

Retrieval-Augmented Generation (RAG) kann Sprachmodelle mit externen Wissensdatenbanken, so auch bestehende Unternehmensdaten, verknüpfen und auf diese Weise die Qualität von Chat-Anwendungen verbessern. Der Beitrag zeigt, was genau hinter dieser Technik steckt.
PDF Kaufen

Sprachmodelle können durch Techniken wie Retrieval-Augmented Generation (RAG) mit externem Wissen erweitert werden. Dies ermöglicht genauere und korrektere Antworten, da diesen Modellen reale Daten zugrunde liegen. Das hilft, falsche Ausgaben zu reduzieren, die ein Sprachmodell überzeugend als Fakten präsentiert, sogenannte Halluzinationen, und macht die Ergebnisse zuverlässiger. Insbesondere für kleine und mittlere Unternehmen bietet dies interessante Möglichkeiten, Prozesse zu optimieren oder Kunden einen besseren Service zu bieten.

Die Herausforderungen 

Grosse Sprachmodelle (LLMs – englisch für Large Language Models), wie sie in Anwendungen wie ChatGPT verwendet werden, generieren beeindruckende, menschenähnliche Texte. Jedoch weisen sie oft auch Limitationen auf.

Trotz ihrer Leistungsfähigkeit bergen solche Modelle auch Risiken, insbesondere im Hinblick auf die Verlässlichkeit, Nachvollziehbarkeit und Qualität der erzeugten Ausgaben. LLMs prüfen die Inhalte ihrer Antworten nicht und validieren keine Quellen. Daher ist unklar, auf welchen Informationen die generierten Aussagen basieren. Dies erschwert es, die Inhalte zu kontrollieren, und kann insbesondere in professionellen oder regulierten Kontexten problematisch sein. Zudem können unbeabsichtigte Verzerrungen aus den Trainingsdaten in die Texte einfliessen, was zu inhaltlichen Schieflagen oder unangemessenen Formulierungen führen kann. Auch rechtliche Fragen, etwa zum Datenschutz oder zur Nutzung geschützter Inhalte, sind zu berücksichtigen.

Ein grosses Risiko besteht darin, dass die Sprachmodelle manchmal halluzinieren – also mit Überzeugung Dinge behaupten, die nicht wahr sind. Dies geschieht, weil die zugrunde liegenden Modelle darauf trainiert sind, Muster in der Sprache zu erkennen. Basierend auf diesen Mustern generieren sie Texte. Obwohl ihre Ergebnisse oft überzeugend klingen und beeindrucken, verfügen LLMs nicht über ein Verständnis davon, was inhaltlich korrekt ist. Sie überprüfen keine Fakten. Auf Anwendungsebene kann aber eine Faktenprüfung hinzugefügt werden. 

Heutzutage werden KI-Tools oft auch mit Web-Suchmaschinen kombiniert, sodass Quellen zu den Texten angegeben werden können. Selbst dann kommt es aber vor, dass bestimmte Inhalte und Themen aus domänenspezifischen Daten nicht ab­gerufen werden können, beispielsweise, weil es sich um firmeninterne Dokumente handelt. 

Hier kommt Retrieval-Augmented Generation (RAG) ins Spiel. Dabei ermöglichen es Entwickler dem Modell, Informationen aus vertrauenswürdigen internen und externen Quellen – wie beispielsweise einer Datenbank oder einer Sammlung von Dokumenten – abzurufen. So lassen sich Fehler reduzieren und die Antworten werden zuverlässiger. Dies insbesondere dann, wenn für die Ausgaben aktuelles oder spezialisiertes Wissen benötigt wird.

Die Lösung

Durch die Kombination eines Sprachmodells mit vertrauenswürdigem domänen-spezifischem Wissen lassen sich die Vorteile beider Ansätze optimal nutzen: die gut formulierten und eloquenten Texte des Sprachmodells und die Zuverlässigkeit kuratierter Informationen. Anstatt vom Modell zu verlangen, alles wissen zu müssen, konzentriert es sich auf seine Stärken: Fragen erfassen, gut formulierte Antworten generieren und sich an den Kontext anpassen.

Die Fakten hingegen bezieht es aus einer echten Datenquelle. Dadurch werden die Antworten nicht nur genauer, sondern auch transparenter. Denn es lässt sich nachvollziehen, woher die Informationen stammen. RAG bietet so eine Möglichkeit, KI-Texte auf solides Wissen zu stützen. 

Technisch lässt sich dies auf unterschiedliche Arten umsetzen. In einigen Fällen werden Dokumente wie PDFs, MS-Word-Dateien oder Webseiten in eine durchsuchbare Datenbank geladen, die dann mit dem Sprachmodell verbunden wird. 

Die Suche kann mit verschiedenen technischen Methoden implementiert werden, aber die Idee bleibt dieselbe: Wenn jemand eine Frage stellt, sucht das System nach den relevantesten Teilen dieser Dokumente und sendet sie an das Modell, um die Antwort zu verfassen. Mit solchen Methoden wird KI genutzt, um die vorhandenen Daten zu erklären und zu beschreiben. Hingegen werden Daten nicht durch generiertes Wissen ersetzt.

Abbildung 1 zeigt visuell, wie sich eine klassische Anfrage an ein Sprachmodell und eine Architektur mit RAG unterscheidet. 

Anwendungsfälle für KMU 

Retrieval-Augmented Generation bietet sich immer dann als gute Option an, wenn das Potenzial von KI genutzt werden soll, aber lokale und interne Daten berücksichtigt werden müssen. 

Unternehmen erhalten häufig wiederkehrende Fragen von Kunden, etwa zur Passwortzurücksetzung oder zur Sendungsverfolgung. Ein Sprachmodell allein könnte die Antwort auf der Grundlage allgemeiner Trainingsdaten aus verschiedenen Datensätzen erraten. Es ist jedoch wahrscheinlich, dass es nicht die richtige Antwort für den spezifischen Anwendungsfall des Unternehmens liefert. 

Das ist ein Risiko, das man heute nicht mehr eingehen muss. Denn bei einer RAG-Konfiguration sucht das System zunächst in Dokumenten wie Produktbeschreibungen oder Anleitungen des Unternehmens nach der richtigen Antwort. Diese verwendet dann das Sprachmodell, um sie dem Kunden zu erklären. Dadurch sind die Antworten sowohl präzise als auch leicht verständlich, was die Auslastung im Kundendienst reduzieren kann. 

RAG kann auch zur Verbesserung interner Prozesse beitragen. Mitarbeitende müssen häufig Informationen in langen Unternehmensdokumenten suchen, beispielsweise Regeln zu Urlaub, Krankmeldungen oder zur Meldung von IT-Problemen. Anstatt PDF-Dateien zu durchsuchen oder E-Mails zu versenden, können sie mit einem RAG-basierten Tool eine Frage in natürlicher Sprache stellen. Das System durchsucht interne Dokumente nach den richtigen Abschnitten, die dann vom Sprachmodell zusammengefasst oder erklärt werden. So finden die Mitarbeitenden schneller, was sie suchen, und können die Gesamtleistung des Unternehmens verbessern. 

Auch in industriellen KMU können bestimmte Aufgaben durch RAG unterstützt werden. In Unternehmen, die Maschinen einsetzen, beispielsweise in der Fertigung, kann ein RAG-Tool Technikerinnen und Technikern bei der Fehlerbehebung helfen. Wenn eine Maschine einen Fehlercode anzeigt oder ungewöhnliche Geräusche macht, kann die Fachperson das Problem in eigenen Worten beschreiben. 

Das System durchsucht dann Wartungshandbücher, frühere Berichte und Servicelogbücher nach relevanten Informationen und erklärt mithilfe des Sprachmodells, was möglicherweise falsch ist und wie das Problem behoben werden könnte. Das spart Zeit und kann dazu beitragen, unnötige Ausfallzeiten zu vermeiden.

Fazit 

RAG bietet KMU eine Möglichkeit, ihre Daten und ihr eigenes Wissen in Kombination mit dem enormen Potenzial gros­ser Sprachmodelle intelligenter zu nutzen. Durch die Kombination von Texten der KI mit vertrauenswürdigen Informationen aus der eigenen Datenbank besteht viel Potenzial zur Prozessoptimierung und Arbeitserleichterung. 

Während sich die Risiken für Halluzinationen bei der Anwendung von RAG im Vergleich zur alleinigen Anwendung des Sprachmodells deutlich reduzieren lassen, muss dennoch sichergestellt werden, dass die Integration des Systems auf verantwortungsvolle Weise erfolgt. Dies gilt insbesondere für sensible Anwendungsfälle, wie beispielsweise die Maschinenwartung. Dort müssen diese Risiken bei der Gesamtanwendung und Prozessgestaltung mit besonderer Sorgfalt behandelt werden. Nicht zu unterschätzen sind der initiale Aufwand und die laufende Pflege der Datenbank oder Dokumentensammlungen, die bei der Einführung von RAG erforderlich sind.

Porträt