Backpropagation

Was bedeutet Backpropagation?

Backpropagation ist ein Algorithmus, der in der künstlichen Intelligenz (KI) zur Feinabstimmung mathematischer Gewichtsfunktionen und zur Verbesserung der Genauigkeit der Ergebnisse eines künstlichen neuronalen Netzes verwendet wird.

Ein neuronales Netz kann man sich als eine Gruppe von miteinander verbundenen Eingabe-/Ausgabeknoten (E/A-Knoten) vorstellen. Der Grad der Genauigkeit, den jeder Knoten produziert, wird als Verlustfunktion (Fehlerrate) ausgedrückt.

Backpropagation berechnet den mathematischen Gradienten einer Verlustfunktion im Verhältnis zu den anderen Gewichten im neuronalen Netz. Die Berechnungen werden dann verwendet, um künstlichen Netzknoten mit hohen Fehlerquoten weniger Gewicht zu geben als Knoten mit niedrigeren Fehlerquoten.

Backpropagation verwendet eine Methode namens Kettenregel, um die Ergebnisse zu verbessern. Im Grunde führt der Algorithmus nach jedem Vorwärtsdurchlauf durch ein Netz einen Rückwärtsdurchlauf durch, um die Gewichte des Modells anzupassen.

Ein wichtiges Ziel der Backpropagation ist es, Datenwissenschaftlern einen Einblick in die Art und Weise zu geben, wie die Änderung einer Gewichtsfunktion die Verlustfunktionen und das Gesamtverhalten des neuronalen Netzes verändert. Der Begriff wird manchmal als Synonym für “Fehlerkorrektur” verwendet.

Techopedia erklärt Backpropagation

Backpropagation wird verwendet, um einzustellen, wie genau oder präzise ein neuronales Netz bestimmte Eingaben verarbeitet. Backpropagation als Technik verwendet Gradientenabstieg: Sie berechnet den Gradienten der Verlustfunktion am Ausgang und verteilt ihn zurück durch die Schichten eines tiefen neuronalen Netzes. Das Ergebnis sind angepasste Gewichte für die Neuronen.

Nach dem Aufkommen einfacher neuronaler Feedforward-Netzwerke, bei denen die Daten nur in eine Richtung gehen, fanden Ingenieure heraus, dass sie die Backpropagation nutzen können, um die neuronalen Eingangsgewichte nachträglich anzupassen.

Obwohl die Backpropagation sowohl beim überwachten als auch beim unüberwachten Lernen eingesetzt werden kann, wird sie in der Regel als überwachter Lernalgorithmus bezeichnet, da für die Berechnung eines Verlustfunktionsgradienten zunächst eine bekannte, gewünschte Ausgabe für jeden Eingabewert vorliegen muss.

Verwandte Begriffe

Margaret Rouse

Margaret Rouse ist eine preisgekrönte technische Autorin und Dozentin. Sie ist für ihre Fähigkeit bekannt, komplexe technische Themen simpel und nachvollziehbar zu erklären. In den letzten zwanzig Jahren sind ihre Erklärungen auf TechTarget-Websites erschienen und sie wurde in Artikeln der New York Times, des Time Magazine, USA Today, ZDNet, PC Magazine und Discovery Magazine als Quelle und Expertin zitiert. Wenn Sie einen Vorschlag für eine neue Definition haben oder eine technische Erklärung verbessern möchten, schicken Sie einfach Margaret eine E-Mail oder kontaktieren Sie sie auf LinkedIn oder Twitter.