- Ver más
¿Qué son las métricas de medición de la bondad de los modelos de IA?
Las métricas de medición de la bondad de los modelos de IA son un conjunto de reglas que ayudan a los desarrolladores a evaluar lo bien que un modelo de IA realiza sus tareas. ¿Es exacto, preciso y fiable en sus decisiones?
Estas métricas arrojan luz sobre la capacidad del programa para tomar decisiones adecuadas mientras lleva a cabo las tareas que le han sido asignadas.
Diccionario Techopedia: Métricas de medición de la bondad de los modelos de IA
El término “IA”, abreviatura de inteligencia artificial, es un concepto tecnológico que capta la inteligencia similar a la humana en los programas informáticos.
La IA es la próxima ola de innovación tecnológica que automatiza diversas tareas similares a las humanas. En esencia, la IA permite a las personas y a las empresas lograr una mayor eficacia con una inversión mínima de tiempo y recursos. Para conseguirlo, se necesitan modelos de IA.
Los modelos de IA son software y algoritmos diseñados para analizar conjuntos de datos, identificar patrones y hacer predicciones. Se entrenan utilizando datos para reconocer estos patrones y apoyar la toma de decisiones. Cuantos más puntos de datos se expongan a un modelo de IA, más precisos serán sus resultados.
Estos modelos son la inteligencia central de los programas informáticos, que comprenden los conjuntos de datos derivados para tomar decisiones basadas en datos. Aprovechan la visión informática, el procesamiento del lenguaje natural y el aprendizaje automático para detectar patrones.
Los modelos de IA encuentran diversas aplicaciones en el mundo real, desde hacer posible la conducción autónoma de coches hasta potenciar asistentes virtuales y sistemas de recomendación.
Para garantizar la precisión de estos modelos en el cumplimiento de las tareas para las que fueron creados, se establecieron métricas de medición de la bondad de los modelos de IA. Estas métricas se centran principalmente en evaluar la corrección de las decisiones tomadas por los modelos de IA.
Por ejemplo, a un modelo de IA en sanidad se le encomendará la responsabilidad de identificar rápidamente las enfermedades de los pacientes cuando se le proporcionen los datos pertinentes.
La bondad de este modelo viene determinada por la eficacia y coherencia con que puede lograr este objetivo con un mínimo de errores.
En esencia, las métricas de medición de la bondad del modelo de IA sirven como mecanismo de garantía de calidad para los programas de IA, asegurando que cualquier modelo de IA proporcione previsiones precisas y fiables.
Métricas de medición de la bondad de los modelos de IA: Conceptos comunes
Se emplean varios tipos de métricas de medición de modelos de IA para evaluar el rendimiento de un programa, y una parte importante corresponde al tipo de predicción.
Una de ellas es la regresión, que predice resultados numéricos y continuos. Otro tipo de predicción es la métrica de clasificación, que determina la categoría a la que pertenece la salida.
Sin embargo, entre estas métricas, cuatro tienen una importancia primordial:
- Exactitud
- Precisión
- Recall
- Puntuación F1
Métrica de exactitud
La métrica de precisión puede compararse a un boletín de notas, que mide lo bien que un modelo de IA hace las cosas. Es la métrica utilizada para evaluar el rendimiento general del modelo de IA en todas las clases relacionadas. Esta métrica es especialmente útil cuando todas las clases tienen la misma importancia.
Por ejemplo, a un robot dotado de IA se le asigna la tarea de elegir el rojo entre los azules dentro de una lista de 10 colores. Si elige con éxito el rojo 7 de cada 10 veces, su nivel de precisión es del 70%, por encima de la media. La métrica de precisión se calcula como la relación entre las predicciones correctas y el número total de predicciones.
Métrica de precisión
La métrica de precisión revela el grado de precaución ejercido por un modelo de IA al clasificar elementos sin cometer errores excesivos. Suele calcularse como la relación entre el número de muestras positivas verdaderas (correctamente etiquetadas como positivas) y el número total de muestras clasificadas como positivas (correcta o incorrectamente).
En esencia, la precisión evalúa la exactitud de un modelo de IA a la hora de identificar correctamente una muestra como positiva. Un ejemplo adecuado es cuando una máquina clasificadora impulsada por IA separa rápidamente las manzanas de un montón de frutas. Si clasifica con exactitud el 80% de todas las manzanas de la pila, su rendimiento de precisión está representado por este porcentaje. Esto indica que es probable que el modelo de IA minimice los errores en sus tareas.
Métrica de recuperación
La métrica de recuperación se centra en garantizar que un modelo de IA no pasa por alto información crítica o significativa. Su objetivo principal es garantizar que el modelo de IA cumple su misión.
En esencia, mide la eficacia de un modelo de IA para determinar si hay suficientes muestras positivas que respalden su uso a largo plazo. Se fija en cómo se clasifican las muestras positivas.
La métrica recall es la relación entre las muestras positivas de un conjunto clasificadas con precisión como positivas y el número total de muestras positivas. Por tanto, cuanto mayor sea la recuperación, mayor será el número de muestras positivas identificadas.
Métrica de puntuación F1
Esta métrica de medición de la bondad del modelo de IA es una amalgama de las puntuaciones de las métricas de precisión y recuperación en una unidad holística. Consigue un equilibrio entre minimizar los errores y no pasar por alto detalles cruciales en el resultado del modelo de IA.
Para conseguirlo, la puntuación F1 combina la métrica de recuerdo y precisión utilizando su media armónica. Por tanto, generar una puntuación F1 base significa implícitamente maximizar las métricas de recuerdo y precisión.
Estas métricas de medición ayudan a los usuarios a determinar implícitamente el rendimiento de un modelo de IA tanto en entornos aislados (de prueba) como en situaciones reales. Captan la calidad de los resultados de un modelo de IA para garantizar que puede alcanzar sus objetivos.
Historia de la Inteligencia Artificial (IA)
La primera idea de inteligencia a nivel de máquina fue conceptualizada por Alan Turing. En 1935, Turing describió una máquina de computación abstracta consistente en una memoria ilimitada y un escáner que viaja de un lado a otro de la memoria, símbolo a símbolo.
Esta máquina de computación abstracta leerá entonces lo que encuentre y seguirá elaborando su propio conjunto de símbolos de forma independiente.
A lo largo de los años, la IA se ha probado, modificado y ejecutado en diferentes formatos.
A continuación se exponen los más destacados: