Was ist Generierung natürlicher Sprache?
Generierung natürlicher Sprache (engl. Natural Language Generation, NLG) ist eine Unterkategorie der künstlichen Intelligenz (KI), bei der Algorithmen des maschinellen Lernens (ML) zur Analyse einer Sammlung diskreter digitaler Eingaben und deren Zusammenfassung zum Einsatz kommen.
Dabei wird ein Text produziert, der aussieht, als sei er von einem Menschen geschrieben worden.
NLG-Algorithmen stützen sich auf Computerlinguistik, Verarbeitung natürlicher Sprache (engl. Natural Language Processing, NLP) und natürliches Sprachverständnis (engl. Natural Language Understanding, NLU), um strukturierte Daten eigenständig in für Menschen lesbaren Text umzuwandeln.
Das Ziel von NLG ist die Erzeugung von Erzählungen, die einen Turing-Test bestehen können.
Zu den traditionellen Anwendungsfällen von NLG gehören die Erstellung von Serienbriefen und Berichten sowie die Entwicklung von Vorlagen für Inhalte.
In Verbindung mit NLP und dem Internet der Dinge (IoT) kann die Generierung natürlicher Sprache Endnutzern personalisierte – und hoffentlich korrekte – Antworten auf Anfragen an Chatbots und virtuelle Assistenten liefern.
Generierung natürlicher Sprache einfach erklärt
Generierung natürlicher Sprache ist eines der wichtigsten Gebiete der künstlichen Intelligenz.
Dahinter steht die Idee, dass Computer und Technologien aus nicht-sprachlichen Quellen – z. B. Excel-Tabellen, Videos, Metadaten und anderen Ressourcen – natürlichsprachliche Ausgaben wie von Menschenhand erzeugen können.
NLG und GPT-3
GPT-3 (Generative Pre-trained Transformer 3) ist eine von OpenAI entwickelte Software zur Erzeugung von Inhalten.
Im Gegensatz zu vielen anderen Modellen der künstlichen Intelligenz können generative Pre-trained Transformer-Modelle mit sehr begrenzten Trainingsdaten gute Ergebnisse erzielen.