La guerra informativa en la era digital en España
Tecnología y Manipulación Electoral en España: Más Allá de la Urna
La guerra informativa en la era digital en España
Las campañas políticas en España ya no se libran solo en mítines y debates: se pelean en millones de feeds controlados por algoritmos. Gracias al big data y la IA, los partidos conocen casi todo sobre ti para enviarte mensajes «a medida». Como señala el analista Manuel G. Pascual, la microsegmentación –el uso masivo de datos para perfilar a cada votante– ha entregado a los políticos «herramientas mucho más poderosas». Cathy O’Neil la llamó incluso “armas de destrucción matemática” por su capacidad de dirigir propaganda a microgrupos con mensajes que “probablemente nadie más vea”. En la práctica, esto significa que un fanático de los toros recibió publicidad de Vox alentando esa fiesta, mientras otro escuchaba un mensaje distinto al llegar a casa. Los grandes partidos también hacen lo mismo: como resumió un consultor, en las generales de 2016 el PP «detectó las provincias donde tenía más riesgo de perder escaños y lanzó campañas agresivas» adaptadas con miedo a Podemos entre votantes mayores. Incluso se usan análisis emocionales basados en IA: si tu perfil digital indica depresión o problemas económicos, las máquinas pueden servirte anuncios (o promesas) que juegan con esos estados de ánimo.
Bots y consensos fabricados
A ese arsenal técnico se suman bots y cuentas falsas. Plataformas de verificación han alertado de astroturfing (“espontaneidad fingida”): cuentas automatizadas que tuitean o comparten mensajes de forma masiva para simular un apoyo ciudadano. En la campaña de 2019, por ejemplo, se detectó un “astroturfing desplegado en Twitter” para respaldar a un líder político. Se crearon cuentas trampa, como la de un supuesto «Daniel Guzmán» con foto de un estudiante mexicano asesinado, para difundir propaganda del PP. No eran fans reales, sino trols al servicio de una estrategia pagada.
Tampoco faltan redes de bots al servicio de terceros. Informes del Instituto Elcano muestran que en Cataluña (2017) el 84% de las 100 cuentas más activas con el hashtag #CatalanReferendum eran anónimas y operadas por bots. Muchos tuits vinculaban a la democracia española con dictaduras extranjeras, procurando polarizar el debate. Incluso se sabe de “granjas de bots dedicadas a intoxicar las redes”, ofrecidas como servicio a partidos o candidatos. Recientemente se han descubierto cuentas falsas con miles de seguidores promoviendo el discurso de Vox, mientras otros bots amplifican críticas extremas a los rivales. En resumen, los bots actúan como un eco artificial: multiplican una idea (o un ataque) hasta que parece consenso, cuando en realidad fue fabricado.
Medios subvencionados y verificadores en entredicho
En paralelo, los medios financieros por el Estado también juegan su rol. Plataformas de “fact-checking” como Maldita.es y Newtral están sustentadas en parte con subvenciones públicas y fondos europeos. Por ejemplo, Maldita.es recibió una ayuda del Gobierno de 6.000 € justo antes de las elecciones de noviembre de 2019. Newtral, por su parte, informó que la UE le asignó 50.000 € para desarrollar un sistema automático de verificación de datos. Estos apoyos han despertado sospechas. A ojos de algunos ciudadanos, una web que dice chequear noticias pero que acepta subvenciones estatales genera dudas sobre su independencia.
Las críticas aumentan porque estas plataformas no son neutrales. Ambas fueron fichadas por Facebook para etiquetar noticias falsas, pero han sido acusadas en redes de filtrar menos los bulos del Gobierno y censurar más las críticas a éste. Un artículo del diario Vozpópuli cuestionó si Newtral (dirigido por Ana Pastor, presentadora de La Sexta) puede ser “ecuánime” con La Sexta misma al hacer fact-checking. Ello alimenta la idea de que los verificadores se vuelven juez y parte.
Esta situación contribuye al desprestigio del fact-checking. A pesar de sus buenas intenciones, la simple existencia de estos filtros oficiales hace que parte del público los vea con recelo. Han surgido voces que dudan de que todos los medios sean tratados por igual. En las redes se ha extendido incluso el rumor (infundado) de que estos “cazabulos” trabajan al servicio de determinado partido. El resultado: una creciente desconfianza hacia los verificadores, sobre todo entre quienes ya tienen un sesgo político.
El “efecto rebote” y el pensamiento crítico
Ni los más imparciales escapamos a las trampas de la mente humana. La psicología social advierte del “efecto rebote” o backfire effect: cuando confrontamos una creencia con datos, algunos reforzamos inconscientemente esa creencia. Un experimento de 2010 lo ilustró: tras preguntar a un grupo conservador por las inexistentes armas de destrucción masiva en Irak, los encuestados acentuaron su convicción tras conocer la verdad. Es decir, al intentar desenmascarar el bulo, se creó más adherencia al bulo.
Hoy los expertos matizan que ese efecto es en realidad raro y puntual. Pero la idea persiste: muchos ciudadanos sienten que, en el intercambio constante de acusaciones entre medios y verificadores, pierden claridad. Además, la gran cantidad de información (y de supuestas “etiquetas de verdad”) intoxica. Cada vez es más fácil dejarse llevar por el estímulo fácil. La situación erosiona el pensamiento crítico: si confiamos en un rumor porque nuestros algoritmos de redes lo refuerzan, o lo descartamos sin dudarlo por un “fact-check” que suena oficial, en ambos casos estamos renunciando a razonar por nosotros mismos.
Mientras tanto, la presión por “seguridad” y “moderación de contenidos” impulsa formas de censura encubierta. Nos dicen que los algoritmos solo borran o ocultan posts para “proteger a los usuarios” o cumplir reglas comunitarias. Pero este filtro invisible decide qué se muestra, a veces sin que nos enteremos. La prensa digital extranjera ya alerta de que la moderación algorítmica tiende a silenciar voces críticas y a privilegiar narrativas «seguros» de la historia oficial. En España, se plantean leyes “anti-bulos” que, según la UE, deben evitar sonar a censura. Al final, los sistemas automáticos –diseñados por humanos con sesgos– pueden dejar fuera del debate temas incómodos. Esto no solo socava la libre discusión, sino que hace menos probable que cuestionemos la realidad que nos venden.
Propuestas ciudadanas
Frente a este escenario, la respuesta debe venir desde la sociedad civil:
- Educación mediática desde la escuela y la familia. Aprender a navegar la infoxicación es tan básico como leer o sumar. Hay que enseñar a distinguir hechos de opiniones, a verificar fuentes y a desconfiar de titulares sensacionalistas. Como destaca la CNMC, la alfabetización mediática es “el aliado principal” para desarrollar el pensamiento crítico ante la desinformación. Solo así los ciudadanos podrán analizar contenidos en lugar de aceptarlos pasivamente.
- Alfabetización digital y algoritmos. No basta con saber leer noticias: hoy necesitamos entender cómo funcionan los algoritmos. Conocer que las redes sociales personalizan contenidos sirve para no culpabilizar sólo a los medios cuando nos enganchamos en una cámara de eco. Debemos aprender qué recopilan de nosotros (y cómo) Google, Facebook, Twitter y compañía. Saber que cada clic añade carne al filtro invisible ayuda a relativizar lo que nos muestran.
- Transparencia total en la financiación. Exigir que todos los medios y plataformas digan públicamente quién les paga. Inspirándonos en la normativa europea, debe saberse el nombre de los propietarios mediáticos y las subvenciones estatales que reciben. Si cada periódico o verificador publica un desglose claro de sus ingresos (públicos y privados), será más difícil ocultar influencias. Menos opacidad en los fondos públicos impediría usar los medios como “subvención encubierta” política.
- Separar información y poder institucional. Es urgente reforzar la independencia real de los organismos encargados de información pública (como RTVE) y de los llamados verificadores. Debe haber una línea clara entre los mensajes oficiales del Gobierno y la información periodística. Por ejemplo, que las agencias de fact-checking no reciban fondos directos del poder político y que además puedan auditar cualquier medio –incluso los de la “oposición”– sin conflicto de intereses. El objetivo es evitar el tufo a propaganda en códigos de verificación.
- Vigilancia ciudadana de algoritmos. Los usuarios tenemos derecho a saber cómo las plataformas moderan contenidos. Se necesitan leyes que obliguen a las redes a explicar por qué ocultan o borran algo. Las propuestas van desde la “explicabilidad algorítmica” hasta comités mixtos de supervisión (tecnólogos, periodistas, sociedad civil). Si sabemos cuándo un post fue silenciado y por qué, podremos denunciar errores y evitar arbitrariedades. La tecnología no debe ser caja negra.
Con estas medidas la ciudadanía recupera poder en su propio juicio. Recuperar el tejido de medios libres y críticos –diversos y transparentes– junto a un público mejor formado, puede romper la espiral de manipulación.
Reflexión final: la autonomía del juicio individual
Vivimos rodeados de tentaciones de persuasión y censura. Corremos el riesgo de convertirnos en espectadores pasivos de discursos calibrados desde fuera, perdiendo así nuestra autonomía. Como en el relato de la Torre de Babel o en aquella fábula de las “ratas enjauladas” que escuchan solo lo que se quiere oír, las redes pueden encerrarnos en un confort mental peligroso. Por eso es vital que cultivemos el sentido crítico: el único antídoto contra la intoxicación informativa es la capacidad de cada persona para pensar por sí misma. En el fondo, se trata de preservar ese espacio íntimo donde arde la chispa del juicio independiente. Cada decisión informada cuenta, y solo recuperando nuestra voz y criterio lograremos que la “guerra informativa” no gane terreno sobre la democracia.
