Was ist Retrieval-Augmented Generation (RAG)?
RAG steht für Retrieval-Augmented Generation, eine KI-Entwicklungstechnik, bei der ein Large Language Model (LLM) mit einer externen Wissensbasis verbunden wird, um die Genauigkeit und Qualität seiner Antworten zu verbessern.
Zu den Arten von Quellen, mit denen LLMs mit RAG verbunden werden können, gehören Dokumentenspeicher, Dateien, APIs und Datenbanken.
Techopedia erklärt die Bedeutung von RAG
LLMs nutzen Retrieval Augmented Generation, um Informationen aus einer externen Wissensbasis zu extrahieren. Dadurch erhält das Modell Zugang zu aktuellen, domänenspezifischen Informationen, auf die es bei der Beantwortung von Benutzeranfragen in Echtzeit zurückgreifen kann.
Einer der Hauptvorteile dieses Ansatzes ist, dass das Wissen des Modells nicht auf Trainingsdaten mit einem bestimmten Stichtag beschränkt ist. Die Wissensbasis kann auch aktualisiert werden, ohne dass das Modell neu trainiert werden muss.
Der Zugang zu einer externen Ressource verringert das Risiko von Halluzinationen, bei denen ein LLM ein nachweislich falsches oder unwahres Ergebnis liefert. Gleichzeitig macht es der klare Link zu einer Wissensdatenbank den Nutzern leichter, die Quellen für die Behauptungen des Chatbots einzusehen und auf Fakten zu überprüfen.
Nachdem wir nun eine Definition für RAG dargelegt haben, wollen wir uns ansehen, wie sie funktioniert.
Wie funktioniert Retrieval-Augmented Generation?
Im Großen und Ganzen besteht RAG aus zwei Hauptphasen: einer Abrufphase und einer Phase der Inhaltserstellung.
In der Abrufphase verwendet ein Maschinenlernen (ML) Algorithmus die natürliche Sprachverarbeitung (NLP) der Eingabeaufforderung des Benutzers und identifiziert auf dieser Grundlage relevante Informationen aus seiner Wissensbasis.
Diese Informationen werden dann an ein Generatormodell oder LLM weitergeleitet, das die Eingabeaufforderung des Benutzers und die während der Abfragephase gesammelten Daten verwendet, um eine relevante Antwort zu generieren, die der ursprünglichen Eingabeabsicht entspricht. Das Verfahren beruht auf Natural Language Generation (NLG).
Geschichte von RAG
Der Begriff Retrieval Augmented Generation wurde ursprünglich in einem Forschungspapier mit dem Titel Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks geprägt, das von Forschern des Facebook AI Research, des University College London und der New York University erstellt wurde.
Darin wird das Konzept von RAG vorgestellt und beschrieben, wie es bei Aufgaben der Spracherzeugung eingesetzt werden kann, um spezifischere und genauere Ergebnisse zu erzielen.
“Diese Arbeit bietet mehrere positive gesellschaftliche Vorteile gegenüber früheren Arbeiten: Die Tatsache, dass sie stärker auf echtem Faktenwissen (in diesem Fall Wikipedia) basiert, führt dazu, dass sie bei Generationen, die mehr auf Fakten basieren, weniger “halluziniert” und mehr Kontrolle und Interpretierbarkeit bietet”, heißt es in dem Papier.
Darüber hinaus wurde in der Studie festgestellt, dass “RAG in einer Vielzahl von Szenarien mit direktem Nutzen für die Gesellschaft eingesetzt werden könnte, z. B. indem man es mit einem medizinischen Index ausstattet und ihm offene Fragen zu diesem Thema stellt oder indem man Menschen hilft, bei ihrer Arbeit effektiver zu sein.”
RAG-Architektur
Die RAG-Architektur besteht aus einer Reihe von Kernkomponenten, die ihr Funktionieren ermöglichen. Diese sind wie folgt:
Anwendungsfälle von RAG
RAG bietet viele potenzielle Anwendungsfälle für Unternehmen. Im Folgenden werden wir einige der wichtigsten betrachten:
- Aufbau von Dokumentenrecherche-Assistenten: Mithilfe von RAG können Unternehmen Chatbots erstellen, mit denen Mitarbeiter in Unternehmensdokumenten gespeicherte Daten abfragen können. Dies ist nützlich für die Beantwortung technischer Fragen zu HR-, Compliance- und Sicherheitsthemen.
- Kundensupport: Unternehmen können RAG auch nutzen, um Chatbots für den Kundensupport zu erstellen, die den Benutzern Zugang zu genaueren und zuverlässigeren Informationen bieten. Ein Einzelhändler könnte zum Beispiel einen Chatbot entwickeln, der Fragen der Nutzer zu Liefer- und Rückgaberichtlinien beantwortet.
- Inhaltserstellung: Vermarkter können RAG nutzen, um domänenspezifische LLMs zu erstellen, die Inhalte wie Artikel, Blogbeiträge und Newsletter erstellen können, die auf die Bedürfnisse einer bestimmten Zielgruppe zugeschnitten sind.
- Branchenanalyse: Entscheider können mit RAG auch Sprachmodelle nutzen, um Marktanalysen zu erstellen. So kann der Nutzer beispielsweise Marktdaten und Branchenberichte in eine Wissensdatenbank einfügen und dann einen Chatbot bitten, die wichtigsten Trends zusammenzufassen.
- Gesundheitsberatung: Gesundheitsdienstleister können RAG nutzen, um Chatbots zu erstellen, die Patienten Zugang zu medizinischen Informationen und Unterstützung bieten können. Dies kann helfen, eine 24/7-Patientenbetreuung anzubieten, wenn ein Arzt nicht verfügbar ist.
RAG-Herausforderungen
RAG ist zwar ein äußerst nützlicher Ansatz für die KI-Entwicklung, aber er ist nicht perfekt. Die vielleicht größte Herausforderung bei der Verwendung von RAG besteht darin, dass ein Entwickler eine umfangreiche Wissensbasis mit qualitativ hochwertigen Inhalten als Referenz aufbauen muss.
Dies ist ein schwieriger Prozess, da die Daten sorgfältig kuratiert werden müssen. Wenn die Qualität der Eingabedaten gering ist, wirkt sich dies negativ auf die Genauigkeit und Zuverlässigkeit der Ausgabe aus.
Ebenso müssen die Entwickler berücksichtigen, ob die Wissensbasis Voreingenommenheit oder Vorurteile aufweist, die es zu beseitigen gilt.
Schließlich kann RAG zwar die Verlässlichkeit erhöhen, aber das Risiko von Halluzinationen nicht völlig ausschließen, so dass die Endnutzer immer noch vorsichtig sein müssen, wenn es darum geht, den Ergebnissen zu vertrauen.
Vor- und Nachteile der Retrieval-Augmented Generation
Als Technik bietet RAG den Unternehmen eine breite Palette von Vor- und Nachteilen. Im Folgenden werden wir einige der wichtigsten Vor- und Nachteile dieser Technik betrachten.
Pros
- Die Verknüpfung mit einer domänenspezifischen Wissensbasis gewährleistet eine präzisere Informationsbeschaffung und reduziert Fehlinformationen
- Die Aktualisierung der Wissensdatenbank anstelle des erneuten Trainings des Modells spart Zeit und Geld für Entwickler
- Nutzer erhalten Zugang zu Zitaten und Referenzen, was die Überprüfung von Fakten erleichtert
- Die domänenspezifischen Ausgaben erfüllen die speziellen Bedürfnisse der Benutzer besser
Nachteile
- Ohne hochwertige Daten kann die Qualität der Ergebnisse leiden
- Der Aufbau einer umfangreichen Wissensbasis erfordert viel Zeit und Organisation
- Ungenauigkeiten in den Trainingsdaten können die Ergebnisse beeinflussen
- Selbst bei verbesserter Genauigkeit bleibt das Risiko von Halluzinationen bestehen
Fazit
RAG ist eine wertvolle Technologie zur Erweiterung der Kernfunktionen eines LLM. Mit der richtigen Wissensbasis kann ein Entwickler den Nutzern Zugang zu einem Berg von domänenspezifischem Wissen verschaffen.
Dennoch müssen die Benutzer die Ausgaben proaktiv auf Halluzinationen und andere Fehler überprüfen, um Fehlinformationen zu vermeiden.