¿Qué significa neurona artificial?
Una neurona artificial es una función matemática inspirada en las neuronas biológicas del cerebro humano. En inteligencia artificial (IA), sobre todo en el contexto de las redes neuronales, las neuronas son la unidad básica de cálculo.
Funcionamiento de las neuronas artificiales
Cada neurona artificial se compone de al menos una entrada, un peso, un sesgo y una función de activación. La mayoría de las neuronas tienen más de una entrada.
Cada neurona artificial tiene su propio peso, que se ajusta durante el entrenamiento para reflejar su importancia. Además de las entradas ponderadas, cada neurona tiene un sesgo. Se trata de una entrada adicional con un valor fijo que no cambia. El sesgo permite a la neurona artificial producir salidas distintas de cero, aunque todas las entradas sean cero.
He aquí un ejemplo del funcionamiento de una neurona artificial:
- La neurona recibe varios valores de entrada;
- Cada una de estas entradas se multiplica por su peso correspondiente;
- Todas las entradas ponderadas se suman, y a esta suma se le añade el sesgo.
- El resultado pasa por la función de activación para producir la salida de la neurona. La función de activación introduce la no linealidad en el modelo, lo que le permite aprender de los errores y realizar ajustes.
Función de Activación | Fórmula | Rango de salida | Ventajas |
---|---|---|---|
Sigmoid | f(x) = 1 / (1 + exp(-x)) | (0, 1) | Adecuado para la clasificación binaria. |
Tanh | f(x) = (2 / (1 + exp(-2x))) – 1 | (-1, 1) | Mayor no linealidad, salida centrada en cero. |
ReLU | f(x) = max(0, x) | [0, +∞) | Computacionalmente eficiente, mitiga el gradiente de fuga. |
Leaky ReLU | f(x) = max(ax, x) | (-∞, +∞) | Aborda el “ReLU moribundo” con una pequeña pendiente negativa. |
PReLU | f(x) = max(ax, x) with learned ‘a’ | (-∞, +∞) | Amplía Leaky ReLU con parámetros “a” aprendibles. |
ELU | f(x) = x if x > 0; a * (exp(x) – 1) if x <= 0 | (-a, +∞) | Suaviza las entradas negativas y aborda el “ReLU moribundo”. |
Swish | f(x) = x * sigmoid(x) | (-∞, +∞) | La función de autogestión funciona bien en algunos casos. |