¿Qué significa retropropagación?
La retropropagación es un algoritmo utilizado en inteligencia artificial (IA) para ajustar funciones matemáticas de peso y mejorar la precisión de los resultados de una red neuronal artificial.
Una red neuronal puede considerarse como un grupo de nodos de entrada/salida (E/S) conectados. El nivel de precisión que produce cada nodo se expresa como una función de pérdida (tasa de error).
La retropropagación calcula el gradiente matemático de una función de pérdida con respecto a los demás pesos de la red neuronal. Los cálculos se utilizan entonces para dar a los nodos de la red artificial con altas tasas de error menos peso que a los nodos con tasas de error más bajas.
La retropropagación utiliza una metodología llamada regla de la cadena para mejorar los resultados. Básicamente, después de cada pasada hacia delante a través de una red, el algoritmo realiza una pasada hacia atrás para ajustar los pesos del modelo.
Un objetivo importante de la retropropagación es dar a los científicos de datos una idea de cómo el cambio de una función de peso cambiará las funciones de pérdida y el comportamiento general de la red neuronal. El término se usa a veces como sinónimo de «corrección de errores».
Definición de retropropagación
La retropropagación se utiliza para ajustar la exactitud o precisión con la que una red neuronal procesa determinadas entradas. La retropropagación como técnica utiliza el descenso de gradiente: Calcula el gradiente de la función de pérdida en la salida y lo distribuye a través de las capas de una red neuronal profunda. El resultado son pesos ajustados para las neuronas.
Tras la aparición de las redes neuronales simples, en las que los datos sólo van en una dirección, los ingenieros descubrieron que podían utilizar la retropropagación para ajustar los pesos de entrada neuronales a posteriori.
Aunque la retropropagación puede utilizarse tanto en el aprendizaje supervisado como en el no supervisado, suele caracterizarse por ser un algoritmo de aprendizaje supervisado porque, para calcular el gradiente de una función de pérdida, debe haber inicialmente una salida deseada conocida para cada valor de entrada.