La maldición de las RR.SS. en el Tribunal de la Opinión Pública

Fiabilidad
Resumen

La credibilidad de la información, ya proceda de un blog independiente o de una organización de noticias consolidada, debe cuestionarse siempre con rigor. Los usuarios deben ser conscientes de que la inmediatez que permiten las plataformas digitales puede comprometer incluso a las fuentes más reputadas.

X, antes conocido como Twitter, ha sido considerado durante mucho tiempo el pulso de las noticias y los acontecimientos mundiales. Sin embargo, como el contenido engañoso y cuestionable impregna la plataforma, ahora se le acusa de sembrar la confusión sobre el conflicto entre Israel y Hamás.

Pero este problema es mucho mayor que el último juguete de Elon Musk, y todos tenemos una responsabilidad colectiva antes de pulsar el botón “Me gusta” o “Compartir”, o de enzarzarnos en una discusión con un bot.

Los testimonios de primera mano sobre el terreno son esenciales para informar con matices sobre cualquier situación en evolución. Sin embargo, las fuentes primarias son notablemente escasas en zonas de conflicto como Palestina y el sur de Israel. Esta ausencia hace difícil escuchar las voces de los civiles afectados por el conflicto. Este vacío se llena rápidamente con desinformación o relatos simplistas que manipulan emocionalmente a la audiencia mundial.

La emoción por encima de los hechos: Los motores algorítmicos de la polarización

Los algoritmos y las suscripciones de pago desempeñan un papel importante en la polarización y la degradación del periodismo. Estos mecanismos amplifican las voces de las cuentas verificadas o de aquellos con un seguimiento sustancial, a menudo eclipsando las perspectivas de base.

Aunque quienes tienen suscripciones premium y marcas azules pueden aportar ideas valiosas, su prominencia en plataformas como X puede crear inadvertidamente una cámara de eco. Esto a menudo deja al margen las perspectivas locales, lo que plantea interrogantes sobre la responsabilidad algorítmica de la plataforma. ¿No deberían las plataformas tecnológicas adaptar sus algoritmos para presentar una visión más holística, especialmente en áreas políticamente sensibles?

Las redes sociales se prestan a ser explotadas por entidades que pretenden manipular la opinión pública con fines políticos, de marketing o de proliferación ideológica. Dado que los algoritmos dan prioridad a la participación, las narrativas engañosas o emocionalmente cargadas a menudo pueden ganar más tracción que las matizadas y basadas en hechos, amplificando aún más el impacto de la desinformación.

Además, el anonimato y el alcance que ofrecen las redes sociales proporcionan un terreno fértil para las campañas de astroturfing, en las que los esfuerzos orquestados pueden crear una fachada de apoyo u oposición popular a un tema concreto. Las cuentas de bots, los deepfakes y otras formas de participación artificial pueden producir una percepción distorsionada de la opinión pública e influir en personas reales para que apoyen una causa o se opongan a ella basándose en premisas falsas.

Pero, como usuarios, ¿cómo podemos separar mejor la realidad de la ficción?

¿Cómo identificar si estás siendo manipulado?

Las plataformas de medios sociales se han convertido en canales extraordinariamente potentes para moldear la opinión pública, y esta capacidad tiene sus implicaciones más oscuras. Estas plataformas pueden ofrecer a los usuarios una visión del mundo a medida que se alinee con sus creencias y prejuicios preexistentes a través de anuncios dirigidos, cámaras de eco y personalización algorítmica.

El uso de contenidos cargados de emotividad, a menudo basados en el sensacionalismo, puede agitar las emociones, reforzando esos prejuicios y eclipsando potencialmente los hechos objetivos.

Las habilidades necesarias para reconocer los desencadenantes emocionales en los intentos de phishing son muy similares a las necesarias para identificar las noticias falsas y la desinformación en Internet.

Del mismo modo que el phishing se basa en la manipulación emocional para eludir nuestras facultades racionales, la desinformación también pretende aprovechar nuestros sentimientos primarios -miedo, ira o sensación de injusticia- para provocar una respuesta rápida y acrítica. Esta excitación emocional puede cerrarnos los ojos ante las incoherencias lógicas, la credibilidad de las fuentes y otras señales de alarma que suelen despertar el escepticismo. Por lo tanto, debemos extender la misma vigilancia a nuestro compromiso en línea.

Como consumidores de información digital, necesitamos cultivar una inteligencia emocional que nos permita detenernos y evaluar críticamente la información que encontramos, sobre todo cuando esa información desencadena fuertes reacciones emocionales. Esta forma de consumo consciente es especialmente importante en un panorama informativo tan polarizado y complejo como el actual, en el que las noticias falsas con carga emocional pueden tener consecuencias en el mundo real.

Buenas prácticas para filtrar la desinformación

En un mundo inundado de datos e información, la capacidad de filtrar el ruido y discernir los hechos de los contenidos engañosos es crucial. Una de las reglas fundamentales para navegar por este complejo panorama es cultivar el hábito del escepticismo. Antes de compartir, respaldar o incluso absorber el contenido, hágase preguntas como: “¿Quién es el autor?”, “¿Cuáles son sus credenciales?” y “¿Tiene buena reputación la fuente?”.

Estas sencillas medidas son muy beneficiosas cuando nos encontramos con noticias en las redes sociales, donde la desinformación puede propagarse de forma viral. Además, es aconsejable buscar elementos periodísticos como citas creíbles, citas directas de las partes implicadas y confirmaciones de múltiples fuentes.

Afortunadamente, las personas pueden tomar varias medidas para evitar la desinformación. Considere la posibilidad de aprovechar el poder de organizaciones de verificación de hechos como Snopes, FactCheck.org, o servicios más localizados dentro de su jurisdicción. Estas organizaciones se dedican a verificar la información y pueden complementar sólidamente su escrutinio.

Del mismo modo, herramientas como Feedly y Pocket pueden recopilar fuentes fiables y actuar como filtro inicial. Las plataformas de redes sociales como Twitter y las propiedades de Meta (Facebook e Instagram) también han tomado medidas para etiquetar o marcar el contenido engañoso o no verificado.

Pregunta Todo

Sin embargo, la eficacia e imparcialidad de estas medidas siguen siendo objeto de debate. Aunque estas plataformas intentan vigilar los contenidos, sigue recayendo en gran medida en los usuarios individuales la responsabilidad de practicar un consumo vigilante e informado de los contenidos.

Simples indicios, como la mala gramática o el lenguaje emocional, pueden servir a menudo como señales de alarma. Además, la validez de una dirección web o de una fuente suele proporcionar pistas preliminares sobre la credibilidad del contenido. Sin embargo, es esencial comprender que la desinformación es cada vez más sofisticada y a veces pasa por alto estos marcadores más aparentes.

La velocidad a la que viajan las noticias en las redes sociales ha hecho que incluso medios de comunicación respetados caigan en la trampa de apresurarse a ser los primeros en publicar una noticia. Frases como “la BBC tiene entendido” o “informes no confirmados” son cada vez más comunes, ya que las organizaciones de noticias se esfuerzan más por la inmediatez que por la verificación en profundidad. Esta urgencia sacrifica a menudo la meticulosa comprobación de los hechos, antaño piedra angular de la integridad periodística.

Combinar el discernimiento individual, las herramientas tecnológicas y los comentarios de instituciones creíbles le ayudará a desentrañar una estrategia compuesta que proporcione la mejor defensa en la lucha contra la desinformación. No se trata sólo de una salvaguarda personal, sino de una necesidad social, teniendo en cuenta el impacto de la desinformación en las comunidades y los procesos democráticos.

Lo esencial

Las grandes tecnológicas deben tener en cuenta las implicaciones éticas de promover contenidos pagados o verificados cuando es indispensable la información imparcial y sobre el terreno. Esto lleva a preocupaciones más amplias sobre el equilibrio entre la rentabilidad y el periodismo responsable, la garantía de la justicia algorítmica y la defensa de una representación equitativa en nuestro ecosistema digital.

La credibilidad de la información, ya proceda de un blog independiente o de una organización de noticias consolidada, debe cuestionarse siempre con rigor. Los usuarios deben ser conscientes de que la inmediatez que ofrecen las plataformas digitales puede comprometer incluso a las fuentes más reputadas, lo que subraya la necesidad crítica de que las personas empleen enfoques polifacéticos para verificar la información.

Adoptar una cultura de preguntas y referencias cruzadas, incluso cuando se consumen contenidos de fuentes tradicionalmente fiables, se está convirtiendo en algo esencial en nuestro panorama informativo en rápida evolución. Mejor aún, activa el modo Monje en tus dispositivos y disfruta de una conversación offline con alguien que desafíe tu visión del mundo y te libere de tu cámara de eco.

Neil C. Hughes
Senior Technology Writer
Neil C. Hughes
Experto en Tecnología

Neil es un periodista tecnológico independiente con más de dos décadas de experiencia en tecnologías de la información. Reconocido como una de las Voces Principales en tecnología en LinkedIn y destacado por CIO Magazine y ZDNet por sus perspicaces aportes, Neil ha contribuido a publicaciones como INC, TNW, TechHQ y Cybernews, además de ser el anfitrión del popular podcast Tech Talks Daily.