Hiperparámetros

Fiabilidad

¿Qué significa hiperparámetro?

Un hiperparámetro es un parámetro de aprendizaje automático cuyo valor se elige antes de entrenar un algoritmo de aprendizaje. Los hiperparámetros no deben confundirse con los parámetros.

En el aprendizaje automático, la etiqueta parámetro se utiliza para identificar variables cuyos valores se aprenden durante el entrenamiento.

Cada variable que un ingeniero de IA o de ML elige antes de que comience el entrenamiento del modelo puede denominarse hiperparámetro, siempre que el valor de la variable siga siendo el mismo cuando finalice el entrenamiento.

Algunos ejemplos de hiperparámetros en el aprendizaje automático son:

  • Arquitectura del modelo
  • Tasa de aprendizaje
  • Número de épocas
  • Número de ramas en un árbol de decisión
  • Número de clusters en un algoritmo de clustering

Definición de hiperparámetros

Es importante elegir los hiperparámetros adecuados antes de empezar el entrenamiento, porque este tipo de variable tiene un impacto directo en el rendimiento del modelo de aprendizaje automático resultante.

El proceso de elegir qué hiperparámetros utilizar se denomina ajuste de hiperparámetros. El proceso de ajuste también puede denominarse optimización de hiperparámetros (HPO).

Temas relacionados

Margaret Rouse
Technology expert
Margaret Rouse
Experta en tecnología

Margaret Rouse es una galardonada escritora técnica y profesora conocida por su habilidad para explicar temas técnicos complejos a una audiencia de negocios no técnica. Durante los últimos veinte años, sus explicaciones han aparecido en sitios web de TechTarget y ha sido citada como autoridad en artículos del New York Times, Time Magazine, USA Today, ZDNet, PC Magazine y Discovery Magazine. La idea de diversión de Margaret es ayudar a profesionales de TI y negocios a aprender a hablar los idiomas altamente especializados de cada uno. Si tienes una sugerencia para una nueva definición o cómo mejorar una explicación técnica,…