Skip to content

Cuando la verdad depende de un algoritmo

Desde las caricaturas que ridiculizaban las vacunas en el siglo XIX hasta los deepfakes y teorías conspirativas difundidas por redes sociales, la desinformación ha acompañado a la ciencia a lo largo de los siglos. Pero hoy, en un ecosistema dominado por algoritmos y contenidos generados con inteligencia artificial, las falsedades se propagan con una velocidad sin precedentes, poniendo en jaque la confianza en la evidencia, la salud pública y la democracia. En este contexto, la pregunta por la verdad se vuelve, más que nunca, un asunto colectivo.

Por  Por Rocío Olmos de Aguilera | Foto principal: Sebastien Bozon/AFP

En un salón atestado, hombres, mujeres y niños se alinean para recibir la aguja de un médico, mientras de sus respectivas frentes, bocas y brazos comienzan a brotar diminutas vacas. Un niño observa de pie mientras sostiene un balde marcado con la inscripción “Vaccine pock. Hot from the cow” (Pústula de vacuna. Recién salida de la vaca). Lo grotesco de la escena —retratada en 1802 por el caricaturista británico James Gillray— es proporcional a los miedos, supersticiones y prejuicios que circulaban en la sociedad europea de principios del siglo XIX frente a la introducción de la vacuna contra la viruela: los rumores decían que era capaz de hacer aparecer rasgos bovinos en los humanos. Esta escena alude a los orígenes mismos de la vacunación, cuando a fines del siglo XVIII el médico inglés Edward Jenner descubrió que la exposición al virus de la viruela presente en las vacas protegía contra la viruela humana.

A lo largo de la historia, las falsas creencias y las teorías conspirativas han acompañado a la ciencia. En 1998, por ejemplo, el médico inglés Andrew Wakefield se hizo conocido por un estudio fraudulento publicado en la prestigiosa revista científica The Lancet en el que vinculaba la vacuna triple viral con el autismo. Más de dos décadas después, en 2019, durante la pandemia, circuló por internet la teoría falsa de que las vacunas contenían microchips para controlar a la población. Este tipo de información engañosa ha afectado la comprensión de asuntos clave —desde los programas de salud pública hasta el cambio climático— y ha erosionado tanto los procesos democráticos como la credibilidad científica y la confianza en las instituciones.

Desde los panfletos e impresos repartidos en las plazas hasta la masividad digital del siglo XXI, la frontera entre lo verdadero y lo falso se ha vuelto cada vez más difusa, y la desinformación, una constante. Ejemplos como los de Gillray o Wakefield revelan que las campañas de manipulación informativa han acompañado a las sociedades humanas por más tiempo de lo que imaginamos. Sin embargo, la era digital ha acelerado y amplificado su impacto, algo que se ha visto potenciado además por algoritmos que priorizan lo viral por sobre lo verdadero. Así lo prueban estudios como “The spread of true and false news online”, publicado en la revista Science, en el que se analizaron más de 126.000 historias compartidas en Twitter y se reveló que las noticias falsas se difunden más rápido y más ampliamente que las verdaderas debido, en parte, a que los algoritmos priorizan contenido viral y emocional sin importar su veracidad.

En Chile, la preocupación es creciente: según el informe de Ipsos de 2024 titulado “Miradas Globales sobre la IA y la desinformación”, ocho de cada diez personas cree que la inteligencia artificial facilita la proliferación de noticias falsas, mientras que solo un 43% confía en su capacidad para distinguirlas. Estos datos revelan la magnitud del desafío y dibujan un panorama marcado por deepfakes y manipulaciones digitales, con efectos que van desde el negacionismo climático hasta la expansión de teorías antivacunas apoyadas por bots y contenidos generados por inteligencia artificial.

En este escenario, resulta imprescindible preguntarse por el papel de la comunidad científica y de sus comunicadores ante un escenario saturado de información y desinformación. Al mismo tiempo, es importante alertar sobre la responsabilidad que tiene la sociedad civil de desarrollar y fortalecer sus capacidades críticas y así verificar, contrastar y discernir la información que consume, sobre todo en un mundo en el que la inteligencia artificial —el nuevo Goliatque enfrentamos periodistas y comunicadores de la ciencia— se usa cada vez más en la vida cotidiana.

Según elForo Económico Mundial (2024), las tecnologías de IA capaces de generar textos, imágenes, audio y videos falsos como los deepfakes permiten a actores maliciosos automatizar y multiplicar campañas de desinformación, amplificando su alcance e impacto y dificultando que la ciudadanía distinga los contenidos auténticos de los falsos. Esto puede influir en elecciones, dañar la confianza en las instituciones y profundizar divisiones sociales. El mismo organismo detalla en el informe The Global Risks Report 2024 que “las campañas de desinformación pueden influir en la percepción de la realidad, propagar prejuicios y promover conflictos y violencia. La rápida expansión de tecnologías facilita la creación de contenido falso cada vez más convincente, dificultando su detección y regulación efectiva”.

El informe subraya también que en algunos países las autoridades han respondido a la difusión de información errónea mediante la censura y el control de contenidos, lo que puede erosionar los derechos humanos y las libertades civiles. En esta línea, un ejemplo que retrata esta situación son las estrategias de desinformación impulsadas por el gobierno de Donald Trump, que recientemente aseguró que las mujeres embarazadas no deberían tomar el fármaco Tylenol porque, supuestamente, este medicamento podría aumentar el riesgo de autismo en sus hijos.

En esta misma línea, los investigadores Juan Luis Manfredi y María José Ufarte concluyeron en un estudio sobre las campañas electorales de 2016 en Estados Unidos y de 2018 en Brasil que en ambos procesos se utilizaron estrategias de desinformación vinculadas a temas de salud y ciencia, entre otros ámbitos, mediante la generación y circulación de información falsa, lo que potenció la desinformación algorítmica en estos y otros asuntos importantes para la opinión pública”.

En este sentido, la Alfabetización Mediática e Informacional (AMI) —definida como la capacidad de acceder, analizar, evaluar y crear mensajes en múltiples formatos (UNESCO, 2011)— es esencial y requiere la colaboración activa de organismos públicos, instituciones educativas, comunidades científicas, comunicadores y la sociedad civil para reforzar la confianza en la evidencia. En Chile, por ejemplo, existe el Observatorio de Desinformación que monitorea y analiza narrativas engañosas y noticias falsas; a nivel internacional existen eventos como la Global Media and Information Literacy Week coordinada por UNESCO, y en América Latina se desarrollan iniciativas como Chequeado en Argentina o la Red Latam Chequea, que fomentan la verificación y la educación crítica de las audiencias.

Asimismo, desde la ciencia, es esencial que científicos/as y divulgadores/as no permanezcan ajenos a esta problemática y fortalezcan sus habilidades de comunicación, garantizando la transparencia de sus procesos y datos, e incorporando mecanismos de verificación pública. Solo así la ciudadanía podrá evaluar los contenidos y la procedencia y calidad de la evidencia científica.

Aunque la IA ha amplificado el problema, también puede emplearse para detectar patrones de lenguaje, verificar hechos y moderar contenidos, lo que abre una oportunidad para combatir la desinformación si se acompaña de marcos éticos, transparencia y alfabetización mediática, según explican Manfredi y Ufarte en el mencionado estudio. En esta misma línea, investigaciones recientes comoA Survey on Automated Fact-Checking afirman que la IA puede entrenarse para la verificación automatizada de datos y la detección de información falsa, desarrollando sistemas capaces de contrastar afirmaciones en línea con bases de datos de hechos verificados y reforzando la labor de periodistas y verificadores.

Hoy existen prototipos y plataformas que ya aplican IA con este propósito. Un ejemplo es Google Fact-Check  Tools, que agrupa verificaciones de agencias mediante el estándar abierto ClaimReview. También han surgido iniciativas centradas en la procedencia y la trazabilidad de los contenidos, como HYBRIDS —perteneciente a las Acciones Marie Skłodowska-Curie, programa de la Unión Europea para la investigación—, que combina algoritmos para detectar patrones de desinformación con la revisión de expertos. Otro es Content Credentials, impulsado por Adobe como parte del proyecto Content Authenticity Initiative, que permite rastrear el origen y las modificaciones de imágenes, videos y textos. Estas tecnologías, aunque todavía incipientes, no solo refuerzan la lucha contra la información falsa, sino que también abren nuevos espacios para promover debates éticos y reflexivos sobre la autenticidad y el uso responsable de los contenidos digitales.

En paralelo, es fundamental que la ciudadanía asuma un rol activo. Una alternativa es revisar la Guía Esencial para Comprender el Desorden Informativo, de First Draft, donde se recomienda —entre otras prácticas— verificar el contenido antes de compartirlo en redes sociales, comprobar la fuente y contrastarlo con medios confiables, además de preguntarse si mantiene su contexto original o ha sido manipulado.

Ya sea un rumor esparcido en el espacio público o una falsedad replicada en redes sociales por innumerables bots, la desinformación ha sido una constante histórica que hoy adopta nuevas formas y un alcance mayor gracias al desarrollo tecnológico. Reimaginar y resignificar estas herramientas en beneficio de la labor informativa y científica es una tarea urgente que demanda atención y compromiso colectivo.