Uno de los problemas más acuciantes de los medios de comunicación modernos es la aterradora perspectiva de decir algo que pueda ofender a alguien, a alguna categoría, a algún grupo protegido o simplemente a algo.
El proceso de sacrificar cualquier forma de libertad en la comunicación también se está introduciendo lentamente en las máquinas. La IA generativa se encamina hacia un lenguaje castrado en el que muchas palabras e incluso conceptos se eliminan por completo de cualquier conversación.
Sin embargo, además de poder hacer que los nuevos contenidos sean increíblemente aburridos, esta forma de autocensura tiene algunas consecuencias inesperadas.
Los chatbots como ChatGPT son utilizados por y para niños y adolescentes, y como las nuevas generaciones utilizan cada vez más estas herramientas para escribir casi todo, ciertos conceptos pueden quedar borrados de sus mentes al ser filtrados.
¿Cuáles serán los efectos más amplios sobre la sociedad y la comunicación humana? ¿Estamos asistiendo al nacimiento de la Newspeak distópica orwelliana?
¿Están evolucionando realmente las habilidades comunicativas de los chatbots?
Cuando George Orwell mencionó por primera vez el Newspeak como lenguaje ficticio en su novela Diecinueve Ochenta y Cuatro, seguro que no pensó que las máquinas serían las heraldos de esta sutil forma de manipulación.
En su libro, el Newspeak era un medio para conseguir un fin: en este caso, la voluntad del Partido de limitar la capacidad de pensamiento crítico de los ciudadanos. Cuanto menor es el vocabulario, más difícil es articular lo abstracto y más difícil es comprender conceptos avanzados como la libertad, la autodeterminación y, en última instancia, el libre albedrío.
Los chatbots modernos también muestran signos de estar involucionando hacia una forma castrada de hablar. Conceptos enteros como el suicidio son, en algunos casos, censurados directamente, ya que los algoritmos bloquean cualquier conversación que se adentre en el terreno de los temas «peligrosos».
Actualmente, los algoritmos de autocensura están perjudicando a los chatbots más que a nadie, con informes de que la implantación de la autocensura hizo que mucha gente abandonara por completo los chatbots tradicionales. La reciente aparición de chatbots de IA NSFW (Not Safe For Work) sugiere la existencia de un hueco en el mercado por cubrir.
¿Es el ChatGPT un enemigo de la libertad de expresión?
El hecho de que no se puedan explorar determinados temas dificulta seriamente la utilidad de los chatbots. Por ejemplo, un usuario de Reddit dijo que ChatGPT tiene prohibido hablar de los discursos de Hitler, incluso cuando este tema se analiza desde la perspectiva de la evolución de la propaganda. No todos los que quieren profundizar en el antiguo dictador alemán están de acuerdo con él.
Según el Redditor, cuando se les pide que hablen de los discursos ideológicos de otros líderes mundiales, como Mahatma Gandhi, no hay tal bloqueo.
Sea cual sea el tema «candente», ya sea el racismo, las desigualdades de género o ciertas ideologías, ChatGPT acabará volviendo a las habituales bromas repetitivas y extremadamente estereotipadas. Estarás de acuerdo en que éste es el mismo método que utiliza la propaganda: decir a la gente lo que es bueno y correcto y lo que es malo e incorrecto.
La verdad, especialmente en lo que se refiere a la historia y al carácter humano, nunca es blanca o negra y siempre debe buscarse examinando todos los matices. Deberíamos vivir en un mundo en el que al menos se puedan debatir las ideas peligrosas, e impedir que la gente sepa algo sobre ciertos temas es mucho, mucho peor.
Hay una razón por la que no borramos a la gente «mala» de la historia y por la que nunca debemos quemar libros «problemáticos».
¿Quién controla al controlador?
Cuando algunos temas se eliminan de cualquier conversación, surge una nueva pregunta: ¿Quién tiene el poder de decidir qué debe mantenerse al margen?
No hace falta ser un científico o un sociólogo para comprender cómo la autocensura de la IA generativa puede ir por la borda. Sus reglas codificadas para no «fomentarnuncaacciones poco éticas, inmorales o perjudiciales para los demás» han llegado al punto de rechazar la respuesta a una pregunta sobre cómo conseguir que un hombre casado deje a su mujer.
Puede que tu juicio sobre ese tipo de pregunta sea personal; puede que todos estemos de acuerdo en que sin duda se encuentra en la zona «gris» de la moralidad.
Pero los chatbots son herramientas, y se supone que las herramientas no deben emitir juicios, y cuando les traspasamos la responsabilidad sobre lo que es moralmente aceptable y lo que no lo es, abrogamos nuestra propia responsabilidad -o una responsabilidad colectiva de la sociedad- a un bot cuyas propias decisiones están dentro de una «caja negra» -donde su proceso es tan complejo que su proceso de toma de decisiones no puede explicarse de un modo que los humanos puedan comprender fácilmente-.
Eso tiene que tener repercusiones. Lo que es «moralmente aceptable» en un lado del globo puede ser extremadamente erróneo en el otro. En el peor de los casos, asistimos a la imposición del punto de vista de otra persona sobre la vida y la ética.
Lo esencial
Cuando se prohíbe un tema de conversación, se convierte en tabú. Cuando se genera un tabú, la sociedad cambia la forma en que se percibe ese tema hasta el punto de marginar a cualquiera que hable de él o esté relacionado con él.
Actualmente, los chatbots no están regulados e imponen su propio código moral -deliberada o involuntariamente- a sus usuarios.
Como era de esperar, los gobiernos de los países más autoritarios ya han detectado el potencial de influir en las generaciones más jóvenes a través de los chatbots de IA.
¿Es la autocensura occidental impuesta a través de los chatbots realmente diferente de la deriva autoritaria de sus homólogos orientales? ¿O es sólo una forma más sutil de imponer verticalmente un modo de vida y una forma de pensar?
Aunque el objetivo original sea proteger a alguien del «daño», la censura conduce al mismo efecto: prohibir que la gente se exprese.
Cuando la política, la ideología, las opiniones y la propaganda empiezan a desbordarse en lo que se supone que es sólo una herramienta tecnológica, debería cuestionarse la buena fe de quienes la manejan.
En cualquier caso, debemos reconocer que las palabras tienen mucho poder y, en este caso, el poder de influir en generaciones enteras. Y el poder debe manejarse siempre con cuidado.