Moderar contenidos no es fácil. Los contenidos odiosos y viles generados por los usuarios que los moderadores de contenidos deben gestionar pueden cobrarse un enorme peaje mental.
Como ejemplo, Meta pagó 52 millones de dólares a sus moderadores de contenidos después de que sus empleados presentaran una demanda en busca de compensación por los problemas de salud que sufrieron, tras meses y meses moderando contenidos perturbadores.
Aunque lidiar con contenidos perturbadores sigue siendo un riesgo laboral para los moderadores de contenidos, se están haciendo esfuerzos para que la IA modere contenidos.
En una entrada de blog, el desarrollador de ChatGPT OpenAI afirma:
“La moderación de contenidos desempeña un papel crucial para mantener la salud de las plataformas digitales.
“Un sistema de moderación de contenidos que utilice GPT-4 permite una iteración mucho más rápida de los cambios de política, reduciendo el ciclo de meses a horas”.
“GPT-4 también puede interpretar reglas y matices en la documentación de políticas de contenido largas y adaptarse instantáneamente a las actualizaciones de las políticas, lo que resulta en un etiquetado más coherente.
“Creemos que esto ofrece una visión más positiva del futuro de las plataformas digitales, donde la IA puede ayudar a moderar el tráfico en línea de acuerdo con la política específica de la plataforma y aliviar la carga mental de muchos moderadores humanos.
“Cualquiera con acceso a la API de OpenAI puede implementar este enfoque para crear su sistema de moderación asistido por IA”.
Si bien la introducción de ChatGPT en la moderación de contenidos reportará ciertas ventajas, como una moderación más rápida de los contenidos y la iteración de las políticas, por otro lado, también puede suponer la pérdida de puestos de trabajo para los moderadores de contenidos.
¿Por qué es necesaria la moderación asistida por IA?
Los problemas de salud mental de los moderadores de contenidos y el deseo de agilizar la moderación de contenidos por parte de importantes plataformas de contenidos digitales como Meta, X y LinkedIn establecen el contexto que subyace a la introducción de ChatGPT en la moderación de contenidos.
En una entrevista con HBR, Sarah T. Roberts, que es directora docente del Center for Critical Internet Inquiry y profesora asociada de estudios de género, estudios de la información y estudios laborales en la Universidad de California en Los Ángeles (UCLA), les contó que los moderadores de contenidos, como parte de su trabajo diario, se enfrentan a contenidos alarmantes, sueldos bajos, software obsoleto y una asistencia deficiente.
Sarah describe su encuentro con una moderadora de contenidos que se considera a sí misma como la que asume los pecados de los demás por algo de dinero, porque lo necesita.
Eficacia y moderadores humanos
La moderación de contenidos es todo un reto debido al ritmo de generación de contenidos y a la relativa lentitud a la hora de seguir el ritmo de la revisión.
Por ejemplo, un informe afirmaba que Meta no identificaba el 52% de los contenidos generados que incitan al odio. La moderación de contenidos tampoco distingue entre los contenidos maliciosos y los adecuados.
Por ejemplo, el gobierno puede querer eliminar imágenes pornográficas, pero las normas de moderación de contenidos pueden tener dificultades para diferenciar entre porno malicioso e imágenes de desnudos que representan una buena causa.
Por ejemplo, el famoso libro Custodians of the Internet muestra a una chica desnuda corriendo mientras su pueblo arde. ¿Deberían eliminarse también esas imágenes?
Argumentos a favor de la introducción de la moderación de contenidos en ChatGPT
Dos ventajas impulsan la introducción de ChatGPT a la moderación de contenidos: una moderación de contenidos más rápida y precisa y aliviar a los moderadores de contenidos humanos del trauma de tener que moderar contenidos odiosos y malos.
Profundicemos un poco más en ambas ventajas.
La moderación de contenidos es un reto debido a la continua necesidad de adaptarse a las nuevas políticas de contenidos y a las actualizaciones de las ya existentes.
Los moderadores humanos pueden interpretar el contenido de forma única, y puede haber una falta de uniformidad en la moderación. Además, los moderadores humanos serán relativamente más lentos a la hora de responder a la naturaleza dinámica de las políticas de contenidos de sus organizaciones.
Los grandes modelos lingüísticos (LLM) GPT 4 de ChatGPT pueden aplicar con precisión y rapidez etiquetas a los distintos contenidos, a las que pueden seguir acciones apropiadas. Los LLM también pueden responder más rápidamente a las actualizaciones de las políticas y actualizar el etiquetado si es necesario.
Mientras tanto, ChatGPT es inmune a los contenidos más odiosos y atroces y puede hacer su trabajo sin verse afectado. En la entrada de su blog, OpenAI sugiere que ChatGPT puede aliviar la carga mental de los moderadores humanos.
Fácil acceso a ChatGPT 4.0
Las organizaciones que necesiten moderación de contenidos con ChatGPT pueden acceder a la API de OpenAI para implementar su sistema de moderación de contenidos basado en IA. Es sencillo y barato.
Sin embargo, ChatGPT no es la panacea para los problemas de moderación de contenidos porque tiene limitaciones, al menos en su estado actual.
Entre ellas, ChatGPT depende del contenido de entrenamiento para interpretar el contenido de las redes sociales.
Hay demasiados casos en los que ChatGPT proporciona respuestas sesgadas e inaceptables a preguntas que han generado controversias.
Si el contenido formativo proporcionado a ChatGPT es tendencioso, es posible que trate el contenido nocivo de las redes sociales como inofensivo y viceversa.
Como resultado, el contenido malicioso puede ser etiquetado como falso positivo. Es un problema complejo que requiere tiempo resolver.
¿Supondrá una pérdida de puestos de trabajo?
La IA se considera un sustituto de los seres humanos en diversas funciones, y la moderación de contenidos podría añadirse a la lista.
Por ejemplo, X, antes Twitter, emplea a 15.000 moderadores de contenidos. Así pues, todas las plataformas de medios sociales emplean a un gran número de moderadores de contenidos que se enfrentarán a un futuro incierto.
Conclusión
A pesar de las afirmaciones de OpenAI, la IA en la moderación de contenidos no es una novedad. De hecho, plataformas como Meta, YouTube y TikTok llevan muchos años utilizándola para moderar contenidos.
Pero todas las plataformas admiten que la moderación perfecta de contenidos es imposible, incluso con IA a escala.
En la práctica, tanto los moderadores humanos como la IA cometen errores.
Dado el enorme reto que supone moderar unos contenidos generados por los usuarios que han crecido demasiado rápido, la moderación será un desafío enorme y complicado.
GPT-4 sigue generando información falsa, lo que complica aún más la situación.
La moderación de contenidos no es una tarea sencilla que la IA pueda marcar como una casilla de verificación y dar por terminada.
Desde este punto de vista, las afirmaciones de OpenAI suenan simplistas y faltas de detalles: la introducción de la IA no va a funcionar por arte de magia.
Los moderadores humanos pueden respirar tranquilos porque su tan cacareado sustituto aún está lejos de estar listo. Pero sin duda tendrá un papel cada vez más importante.