Revista 39 logo

PRIMER SEMESTRE 2025 NÚMERO 39

ISSN: 1659-2069

 

Desinformación: nuevas amenazas para la integridad electoral*

 

Rafael Rubio Núñez**

 

https://doi.org/10.35242/RDE_2025_39_1


Nota del Consejo Editorial

Recepción: 7 de noviembre 2024.

Revisión, corrección y aprobación: 13 de enero de 2025.

Resumen: Analiza el rol de las nuevas tecnologías como herramientas de comunicación en los procesos electorales, especialmente en las campañas consideradas como un proceso comunicativo con un código propio; sin embargo, su uso disfuncional es considerado un ataque dirigido a la infraestructura más crítica de la democracia: la confianza.

Palabras clave: Comunicación política / Desinformación / Noticias falsas / Posverdad / Proceso electoral / Campaña política / Debilitamiento de la democracia.

Abstract: It analyzes the role of new technologies as communication tools in electoral processes, especially in campaigns considered as a communicative process with its own code, however, its dysfunctional use is considered as an attack targeting the most critical infrastructure of democracy, trust.

Key Words: Political communication. / Misinformation / Fake news / Post-truth / Electoral process / Political campaign / Weakening of democracy.

 

 

 

 

1.       Introducción: la información en la democracia y en la campaña electoral

En la sociedad del conocimiento, la información es la materia prima fundamental de la democracia. La comunicación no es un elemento accesorio, sino que forma parte esencial de la democracia misma, hasta el punto de que la representación política solo es explicable desde la publicidad (Habermas, 1981); “la traducción a nivel político y parlamentario de la opinión pública burguesa concebida como producto de la discusión entre particulares en el seno de la sociedad” (De Vega, 1985, p. 33).

Esta información adquiere especial importancia en las campañas electorales. Si entendemos la política como la mediación entre visiones del mundo contrapuestas, la campaña electoral sería su momento de socialización y opción periódica. Y aunque no podemos decir que las campañas sean la búsqueda de la verdad, sí que la veracidad debe ser una regla del juego indispensable en ellas.

Inicialmente se han considerado las campañas como un momento comunicativo con un código propio, en el que son admisibles afirmaciones, críticas y promesas más dirigidas a persuadir que a informar, pero hoy se reconocen las disfunciones informativas como un ataque dirigido a la infraestructura más crítica de la democracia, la confianza.

 

2.       Tecnología y democracia

Es una realidad incontestable que la irrupción de las tecnologías de la información ha cambiado nuestra sociedad y está transformando también el mundo de la política. Mientras esto ha desatado, en el ámbito de la teoría política, un apasionado debate, en el ámbito del derecho constitucional, estas herramientas han pasado durante mucho tiempo desapercibidas. Sin embargo, ante esta influencia tecnológica:

los fundamentos teóricos clásicos sobre los que se asentaba la democracia parecen tambalearse, insuficientes ante las nuevas circunstancias políticas, económicas y sociales.… Ante esta situación parece obligatorio optar por una fórmula de análisis teórico práctica que, sin ignorar las nuevas situaciones, actores y sistemas políticos, pueda servir para plantear un pensamiento coherente, y logre aportar nuevas luces, con las que dirigir los avances políticos de la sociedad. (Rubio, 2004, p. 17)

Aunque la tecnología también ha afectado al ámbito político, como advertía De Vega (1998) estos cambios no se han visto acompañados de una “amplitud de los espacios políticos” (p. 14). Mientras las tecnologías transforman las relaciones comerciales o revolucionan la forma en que se entablan relaciones sociales, “continúa siendo el Estado el punto de referencia y el marco obligado donde se establecen los supuestos reguladores de la vida social y donde se definen y se expresan democráticamente los principios valorativos ordenadores de la convivencia” (1998. p. 14).

Sin embargo, hoy vemos con preocupación cómo surgen modelos de fuerte base tecnológica que muestran una mejor adaptación a la transformación digital que los sistemas liberales. Sus efectos nos llevan a plantear la relación del Estado con la tecnología como una materia del derecho constitucional.

 

3.       Tecnología y elecciones

El uso de la tecnología también ha introducido una serie de elementos diferenciadores en los procesos electorales. Su irrupción en la sociedad y, sobre todo, la generalización de su uso ha provocado cambios en la forma de difusión de la información y en las posibilidades de organización política, con especial importancia en las campañas y, en particular, en el uso de publicidad segmentada, en los mecanismos de financiación, o en la captación y organización de voluntarios.

No se trata de innovaciones exclusivas de la campaña electoral, sino que afectan a todo el proceso, desde la presentación de las candidaturas hasta la proclamación de electos. La tecnología ha permitido, por un lado, extender el ejercicio del derecho al voto, ampliar la participación de aquellos que se encuentran fuera de su país, mejorar su transparencia y las posibilidades de control y aumentar la eficacia del sistema y la confianza en este, por ejemplo. Por el otro, también se han multiplicado las amenazas de ataques tecnológicos que buscan alterar el sistema, de manera general o selectiva en las fases clave del proceso. Esto se hace especialmente patente durante las campañas electorales, en las que la tecnología se ha convertido en un elemento diferenciador.

Además de los cambios cuantitativos que permiten obtener ventaja a aquellos que las adoptan con anterioridad, estas innovaciones tecnológicas suponen cambios en aspectos relevantes a lo largo del proceso. Es tal el protagonismo de la tecnología en los últimos años que hasta ha llegado a caracterizar las sucesivas elecciones, al menos en las campañas presidenciales norteamericanas, pioneras en el uso de la tecnología en campaña. Así se ha venido hablando de las elecciones de Meetup (2004), de myBO y las redes sociales (2008), de la microsegmentación (2012), o de Twitter y la publicidad en Facebook (2016) y cuando parecía que habíamos normalizado el uso electoral de la tecnología, han llegado las elecciones de la inteligencia artificial (IA) (2024).

Dentro de este protagonismo, hemos conocido distintas acciones, como la capacidad de perfilar a los usuarios y adaptar la comunicación, pagada u orgánica, a estos perfiles (práctica popularizada por la empresa Cambridge Analytica tanto en las elecciones presidenciales de Estados Unidos en 2016 como en la campaña del referéndum para la salida del Reino Unido de la Unión Europea, Brexit); la interferencia de personas o grupos distintos de los partidos políticos tanto nacionales como extranjeros (Rusia en las elecciones de Rumanía en 2024); la creación de perfiles falsos (bots automatizados o gestionados manualmente, un fenómeno global) para crear corrientes de opinión favorables (como en el referéndum sobre el aborto en Irlanda de 2018); o el uso de plataformas de comunicación interpersonal para distribuir masivamente mensajes de desinformación (en la que destaca el uso de WhatsApp que hizo en la campaña presidencial brasileña Jair Bolsonaro en 2018 (Sánchez, 2020).

Si a esto unimos la irrupción de la IA y sus posibilidades, podemos hacernos una idea de la profundidad del cambio. La automatización de algunos de estos procesos, a través de los algoritmos, y especialmente la integración de sistemas de inteligencia artificial en la maquinaria electoral están transformando la dinámica de los procesos electorales en el contexto de la “comunicación algorítmica” (Campos y Garcia, 2018). De esta manera, se han incorporado a las campañas mecanismos de escucha masiva y perfilado automatizado del votante, así como sistemas de comunicación personalizada a través de distintos canales que están aumentando el alcance y la eficiencia de las campañas de desinformación (Rubio, Alvim y Monteiro, 2024).

Este tipo de comunicación electoral afecta a la “arquitectura de decisión” del votante, al propiciar una opinión cada vez más personalizada basada en segmentación y microsegmentación; la generación de contenido que a veces desdibuja la distinción entre no ficción y ficción, especialmente con el uso de deepfakes[1]; y la difusión y redifusión de estos. De ahí que se señalen como riesgos del uso de estas tecnologías su efecto amplificador, la difusión de desinformación y teorías de la conspiración, y la creación y consolidación de cámaras de eco y filter bubbles[2] (Rubio, Alvim y Monteiro, 2024).

Así lo señaló Sam Altam en su comparecencia ante el Senado de los Estados Unidos en mayo de 2023 cuando, preguntado si pensaba que se podían utilizar los modelos de lenguaje basados en IA como ChatGPT[3] para hacer que los votantes se comportaran de determinada manera, mostró su preocupación de que estos mecanismos puedan ser utilizados para persuadir, involucrar y manipular en relaciones personales con los votantes (BBc News, 2023).

Fung y Lessig (2023) han puesto un nombre a este fenómeno que materializaron en un artilugio denominado Clogger, y cuyas posibles utilidades analizaron. El punto de partida de lo más determinante en el “nuevo orden algorítmico”, del que forma parte la IA, es que condiciona de manera determinante nuestro acceso a la información, ya que la predetermina selectivamente.

Además de poder manipular los algoritmos de los motores de búsqueda para que los sitios web o las noticias que contengan información falsa aparezcan primero, la IA supondría una escalada gradual en la eficacia de los mecanismos de microsegmentación e influencia en el comportamiento, presentes en las campañas desde principios de siglo. De esa forma convierten la personalización en una realidad asequible, debido a su condición individualizada, dinámica y adaptativa: 1) la generación, gracias a sus modelos de lenguaje, de mensajes en distintos formatos realmente personalizados sin un límite real en cuanto que todo el proceso de segmentación, creación y distribución del mensaje estará automatizado; 2) el uso de técnicas de aprendizaje reforzado, basadas en el machine learning[4] y la prueba y error, para generar una serie de mensajes que, en función de la respuesta, vayan aumentando su nivel de persuasión acrecentando, con cada uno de ellos, su eficacia persuasiva; 3) este aprendizaje se alimentará, también, de la respuesta de los demás votantes, a través de conversaciones dinámicas en las que cada vez se afinan más los mensajes que están funcionando en ese momento con todos adaptándolos a cada uno.

Además, apuntan también los autores que esta labor de persuasión podrá desarrollarse sin utilizar mensajes estrictamente políticos, y ponen como ejemplo la posibilidad de inundar los mensajes de los votantes más cercanos a los oponentes políticos de información sobre aficiones mucho más atractivas que la política, o de mensajes o anuncios desagradables que “oculten” los mensajes políticos. E incluso a través de la persuasión a los grupos de confianza del votante al que se pretende persuadir, creando microcomunidades autorreferenciales, silos de verdades distintas compartidas solo por iguales.

El segundo problema es que estas técnicas están desvinculadas de categorías como verdadero o falso, por lo que el objetivo de conseguir un cambio de voto está por encima del de facilitar información precisa. Con el añadido, y este sería el tercer inconveniente, de que los afectados no tendrían forma de saber las estrategias utilizadas en este ejercicio de persuasión, lo que los deja más expuestos a su influencia. Como recordaba Charles Baudelaire, el mayor truco del diablo es hacernos creer que no existe.

A este razonamiento de los profesores norteamericanos cabría añadir una cuarta razón: el uso de estas técnicas por parte de uno de los candidatos, como cualquier tecnología que irrumpe en campaña, generaría un efecto de imitación, que provocaría en un breve espacio de tiempo su generalización y un riesgo de convertir la campaña en una guerra entre tecnologías (guerra cognitiva).

En esta guerra triunfaría la de mayor impacto, lo que supondría en la práctica el fin de la democracia, pese a su apariencia, al mantenerse los elementos propios de un proceso electoral como discursos, anuncios, mensajes, votación y recuento, pero en un espacio donde la opinión pública además de fragmentada sería inducida, irreal y falsificada.

 

4.       Tipos de disfunciones informativas

En un nuevo escenario de poder donde el poder de producción es sustituido por el poder de definición, y donde la información es el instrumento clave para definir y definirse, calificamos como disfunción informativa electoral: todo proceso que, afectando a la información y su tratamiento, pueda suponer una alteración del funcionamiento ordinario del proceso electoral.

Las disfunciones informativas más habituales en periodo electoral pueden ser las siguientes: el uso de estrategias de segmentación para trasladar información de campaña a través de mecanismos, habitualmente masivos y automatizados; la desinformación en sus diferentes facetas; el uso de bots que llevan a cabo campañas coordinadas de apoyo o ataque; la clonación de medios de referencia con apariencia del medio tradicional, o simplemente la creación de fuentes informativas con apariencia de medios (medios express); las desigualdades en el acceso a la información; la suplantación de identidades o la atribución de actuaciones o declaraciones inexistentes, con el uso de deepfakes. Pero también los ataques informáticos que alimentan la percepción de debilidad del sistema y la facilidad del fraude; la actuación de las administraciones públicas a través de sus perfiles sociales (tanto con la contratación de publicidad como con publicaciones); las publicaciones fuera del periodo de campaña (veda y precampaña); la suspensión o el cierre de canales, o la retirada de contenido, por parte de las plataformas tecnológicas durante el periodo electoral; el uso de la violencia política en las redes (especialmente contra las mujeres) y la intervención de terceros, tanto con la compra de publicidad como a través de acciones de comunicación orgánicas que buscan eludir los controles electorales (tan diversas como la manifestación pública del apoyo, campañas masivas de respaldo en las redes o la publicación de encuestas de toda naturaleza).

Es importante señalar que estas disfunciones, que se pueden dar de manera puntual u ocasional, amenazan a la democracia cuando tienen carácter sistemático, estructural. Países y organizaciones emplean ya recursos de manera estable, y no solo en periodo electoral, para actividades estructurales de manipulación informativa. Estos conforman auténticos ejércitos híbridos dedicados en exclusiva a este tipo de labores como un instrumento más dentro de su política de defensa y su política internacional. Pero, además de los países, este tipo de amenazas estructuradas pueden venir también de la mano de los propios partidos (con capacidad operativa y financiera para llevarlas a cabo) o de otros sujetos que, por motivos diferentes como los económicos, pueden interferir en la elección.

De ahí que una de las condiciones para responder eficazmente a este tipo de amenazas pasa por dejar de ver la desinformación como algo anecdótico, aplicable a cualquier información errónea dentro del proceso electoral, y empezar a tratarla como algo estructural y con un fuerte contenido estratégico, basado en la construcción de narrativas falsas mantenidas en el tiempo y no en manipulaciones informativas puntuales.

Además, también es importante señalar su eficacia. Aunque las personas son, generalmente, capaces de discernir lo verdadero de lo falso y son bastantes escépticas frente a la desinformación en las elecciones, este tipo de campañas se desarrollan en los márgenes, en los momentos de la decisión del voto, sobre un porcentaje pequeño de votantes y en climas políticos y sociales en tensión, aprovechando la dimensión cada vez emocional de las campañas, donde los sentimientos (especialmente los negativos como el odio o el miedo) tienen un peso mayor que la razón en la toma de decisiones políticas.

Por último, a la hora de hablar de manipulaciones informativas con intención electoral, conviene conocer también las motivaciones. No se trata, como podría parecer, únicamente de apoyar a un candidato, habitualmente a través del desgaste de sus oponentes, sino que este tipo de actuaciones pueden buscar también deslegitimar al elegido, sea quien sea, para sembrar inestabilidad y debilitar al país, o simplemente mejorar la economía de los que participan en ella, como personajes principales o secundarios.

 

5.       La búsqueda de respuestas

La percepción del riesgo para la democracia ha aumentado en consecuencia y ha ido planteando distintas formas de respuesta. En esta respuesta es necesario distinguir entre respuestas inmediatas, que quizá son las más difíciles pero las más obvias, y respuestas estructurales, que a la luz de lo señalado son las más importantes, sin que ni las unas ni las otras pongan en riesgo derechos fundamentales.

 

5.1 Respuestas inmediatas

La respuesta inmediata ante la desinformación pasa por detectar, reaccionar y responder. Esto es, por la velocidad en su identificación y, sobre todo, en la demostración de su falsedad. Pero no siempre es posible. Por eso, en ocasiones habrá que optar por la bajada de contenidos e incluso por la eliminación de cuentas, medidas que, junto a aristas jurídicas, presentan una serie de problemas prácticos en su aplicación. Con esa intención en México, Panamá, Brasil o Costa Rica, por ejemplo, los organismos electorales establecen durante la jornada electoral un sistema de respuesta basado en la monitorización exhaustiva, lo que, además de la colaboración de las plataformas tecnológicas, requiere personal y herramientas adecuadas, que alertan tempranamente sobre información errónea y permitan dar una respuesta oficial antes de que la información se vuelva viral.

Es un hecho que, para ofrecer una respuesta, las plataformas han comenzado a implementar medidas a fin de responder y minimizar las amenazas a la democracia, y a su propio negocio, hasta el punto de que actualmente, la mayoría de las decisiones adoptadas durante una campaña electoral no lo son por los órganos electorales, sino por organizaciones privadas como Meta, Twitter, WhatsApp o Tik Tok que, aunque puedan no afectar de manera determinante al resultado electoral, alteran el normal desarrollo del proceso. Entre estas medidas se encuentra la localización y eliminación de cuentas falsas (Facebook y Twitter), la suspensión de cuentas de partidos o candidatos que puede llegar hasta su eliminación (Twitter, Facebook, WhatsApp); la denuncia de “noticias falsas” por parte de los usuarios, que son sometidas en la mayoría de los casos a sistemas de moderación automatizada, y que delegan a plataformas de verificación de contenidos (fact checking) la decisión sobre ese contenido en los casos más problemáticos; la prohibición de la publicidad política (mantenida por Twitter durante años) o el establecimiento de una serie de requisitos para contratar publicidad política[5].

De este modo, unilateralmente las plataformas han ido añadiendo distintas reglas al escenario electoral, a través de la aplicación de los contratos privados. Esta forma sui generis de normativa electoral, resultado de una relación entre particulares, es aplicada también de manera unilateral por las propias plataformas, convertidas en nuevos árbitros electorales cuya única “legitimidad” es el lugar privilegiado que ocupan en el mercado. Se establece así un tipo de legislación y justicia electoral informal, sin criterio ni procedimientos claros, lo que da espacio al abuso y la arbitrariedad[6]. Y esto genera conflictos como los de hace unas semanas cuando la Comisión Europea alertaba frente a la falta de actuación decidida de Meta en las elecciones europeas o, a requerimiento de las autoridades rumanas, por el uso de Tik Tok en las últimas elecciones presidenciales en Rumanía, lo que ha dado lugar a sendos expedientes en aplicación de la DSA[7]. Y es aquí donde adquieren importancia los organismos electorales que se perfilan como interlocutores imprescindibles de las plataformas sociales para controlar sus actuaciones y ordenar a las plataformas otras actuaciones, en aplicación de la legislación electoral.

Sin embargo, esta respuesta inmediata de los organismos electorales también plantea problemas. Por un lado, las decisiones jurisdiccionales respecto de esta materia ponen sobre la mesa el asunto de cuál es el límite a la solución jurisdiccional cuando no existe regulación por parte del legislativo y la necesidad de distinguir entre acciones puntuales de aquellas con efectos permanentes. Podemos decir que, en esta materia, los organismos electorales han asumido un papel proactivo, con sentencias más creadoras de derechos que intérpretes de este, asumiendo un papel de agentes del cambio que adaptan la normativa en una materia concreta a una realidad de evolución constante, con el objetivo de defender la democracia y la igualdad y libertad de expresión. Por otro, vemos cómo las plataformas no desarrollan esta labor de la misma manera en los distintos procesos electorales, en función, fundamentalmente, del tamaño del mercado del país en cuestión, e ignoran con frecuencia las decisiones de los organismos electorales, evitando la ejecución de estas, lo que pone de manifiesto la dependencia operativa que los organismos electorales tienen con las plataformas sociales y genera una cierta sensación de impunidad que incentiva a los actores políticos a continuar con sus manipulaciones informativas.

 

5.2   Respuestas estructurales

Junto a los problemas señalados, la experiencia nos muestra que esta respuesta inmediata no es suficiente.

 

a)      Comunicación

La lógica de disfunciones informativas como la desinformación no es de hechos, sino de narrativas y es aquí donde reside el principal problema de las respuestas estructurales. Hemos visto ya muchas veces, en países como Estados Unidos, Perú o Brasil, cómo una serie de fallos menores del sistema electoral son utilizados para construir una narrativa de fraude que es recibida y amplificada por algunos medios y se extienden masivamente por las redes sociales con la paradoja de que aunque los hechos mostrados han sucedido, nunca permitirían alcanzar las conclusiones de fraude. Sin embargo, al sacarlos de su contexto temporal y geográfico, provocan llegar a conclusiones falsas. Es esta narrativa de fraude la que está generando en todo el mundo una gran inestabilidad basada en las dudas sobre el proceso y el resultado electoral.

Aunque se ha extendido por todo el mundo, casi como un slogan, la expresión “dato mata relato”, podemos decir, que dicha afirmación no es más que un mal relato que no soporta los datos y conduce a la ineficacia de muchas de las respuestas ofrecidas. A las narrativas se debe responder con narrativas y eso requiere tiempo y técnica. De ahí la importancia de reforzar la capacidad de comunicar de los distintos actores involucrados.

La comunicación de los organismos electorales, que durante los procesos fungen como fuentes oficiales, es la respuesta estructural más eficaz, pero esta debe ser profesional, estratégica y continuada en el tiempo. Muchas veces los organismos electorales consideran que no tienen obligación de comunicar, y cuando comienzan a hacerlo ya es demasiado tarde porque no gozan de la confianza de la sociedad, algo que requiere de tiempo y trabajo constante. Además, incluso cuando estos organismos comunican, su actuación deja mucho que desear. En ellos se junta la falta de profesionalidad para estas tareas, relegadas a un segundo plano, y la falta de cultura de comunicación pública. Aunque podemos señalar el caso de Brasil donde las operadoras, por iniciativa del Tribunal Electoral, ofrecen acceso gratuito a las webs oficiales.

En la respuesta comunicativa tampoco podemos olvidar a los medios de comunicación. Los medios siguen teniendo un papel importante en la vida política, y siguen siendo pieza importante de los procesos electorales. Son ellos los que señalan la legitimidad, operan de cámara de eco y convierten algo puntual en algo sistémico. Por eso, los medios de comunicación necesitan recobrar el prestigio para recuperar la confianza y su independencia. Establecer una serie de obligaciones de transparencia en su gobernanza y en su funcionamiento y no tanto en los contenidos servirá para recuperar la confianza y la independencia, estrechamente relacionadas. En esa línea podemos destacar la Ley de Libertad de los Medios de Comunicación, aprobada en la UE, por la que todos los medios informativos -independientemente de su tamaño- tendrán que publicar en una base de datos nacional la identidad de sus propietarios, también si son parcial o totalmente de titularidad pública. De la misma forma, los medios de comunicación tendrán que informar sobre los fondos públicos recibidos en concepto de publicidad o en forma de subvenciones, incluidos los procedentes de terceros países. Estos fondos deberán asignarse mediante criterios públicos, proporcionados y no discriminatorios. Además, se establece una serie de medidas para procurar la independencia editorial de los medios de comunicación públicos, por medio del establecimiento de criterios para su financiación la cual deberá ser transparente y basada en procedimientos objetivos, además de sostenible y previsible. Por último, como forma de protección de los medios se introduce un mecanismo para evitar que las grandes plataformas restrinjan o eliminen arbitrariamente contenidos de los medios por incumplimiento de sus condiciones. Este mecanismo las obliga a distinguir los medios independientes de las fuentes no independientes y a notificar su intención de eliminar o restringir su contenido, abriendo un plazo de veinticuatro horas para que el medio pueda responder, y llevar a cabo su actuación, solo después de haber recibido una respuesta (o en ausencia de ella).

 

b)      Alianzas

Las alianzas con la sociedad civil y los actores involucrados son otra vía de respuesta estructural poco explorada. Estas alianzas son una forma de aprovechar la confianza que suelen despertar las organizaciones de la sociedad civil y ponerlas al servicio de la integridad electoral. Estas pueden desempeñar funciones de verificación, de creación de mensajes y de su difusión para alcanzar públicos alejados de los organismos electorales y haciéndolo, además, con un plus de confianza que a los organismos electorales les resultaría imposible conseguir. Experiencias como la celebración del Pacto Ético Digital realizado en países como Argentina, Uruguay o Panamá, liderados por los organismos electorales, son un primer paso en esta dirección. En la misma línea puede servir de modelo el Código de buenas prácticas frente a la desinformación aprobado en 2022, que sustituye y refuerza el de 2018 y ha sido suscrito por 34 entidades, incluyendo plataformas en línea, agencias de publicidad, verificadores de datos, academia y organizaciones de la sociedad civil. Entre sus 44 compromisos y 128 medidas, destacan la desmonetización de la difusión de desinformación; la garantía de la transparencia de la publicidad política; la reducción del comportamiento inauténtico utilizado para difundir desinformación; la cooperación con los verificadores de datos; y el acceso de los investigadores a los datos. Dentro del grupo de trabajo creado para dar seguimiento a su puesta en marcha destaca la creación de un Centro de Transparencia que recoge los informes de las plataformas que forman parte de este.

c)      Ciberseguridad

También desde el punto de vista estructural, hay que adoptar medidas de seguridad, para proteger procesos y personas, en línea con la propuesta del Consejo de Europa de convertir las elecciones en una prioridad de seguridad nacional y en una infraestructura crítica, dotándola de especial protección.

La Recomendación sobre procesos electorales inclusivos y resilientes en la Unión y con vistas a reforzar el carácter europeo y el desarrollo eficiente de las elecciones al Parlamento Europeo aborda la protección y la ciberseguridad de las infraestructuras relacionadas con las elecciones, que se deben clasificar como críticas, así como de bases de datos y procesos de estas, en línea con la propuesta de Ley de Ciberresiliencia.

 

5.2.1 Marco jurídico

La adecuación del marco normativo en la aplicación de estándares internacionales como los de la Comisión de Venecia también es necesaria, sabiendo que la respuesta no puede terminar vaciando de contenido la campaña electoral ni sus objetivos de reforzar la democracia. La justicia electoral no puede desarrollar esta labor sin un marco normativo que le permita dar respuesta a actuaciones que atenten contra la libertad de los votantes, así como dotarse de la capacidad de responder en tiempo y forma, en consonancia con la importancia de su actuación.

En este ámbito jurídico hemos pasado de una respuesta jurídica basada en la autorregulación y con la aplicación flexible de normas ya existentes, con un fuerte componente jurisprudencial y una dependencia importante de los operadores tecnológicos en caso de conflicto (Rubio, 2018), al impulso normativo de una serie de normas que buscan limitar de manera proactiva determinadas prácticas y herramientas en el ámbito de la desinformación, la segmentación y la publicidad política.

Existe una obligación positiva de asegurar las condiciones en las que el electorado puede formar y expresar libremente su opinión y elegir a sus representantes. La libertad de expresión (especialmente en el debate político) y las elecciones libres son derechos que se necesitan mutuamente. Así, resulta imprescindible adecuar el marco jurídico para garantizar un entorno electoral equitativo, lo que en el escenario digital implica una serie de dificultades añadidas para proteger la libertad y el secreto del voto, mantener a salvo la libertad de expresión y no perjudicar el principio de equidad.

Además, garantizar las condiciones para un entorno de campaña equitativo supone garantizar una clara separación entre el Estado y el partido. Presume también la igualdad de acceso a los medios de comunicación, públicos y privados, para todos los partidos y contendientes en la campaña electoral, procurando una cobertura precisa y objetiva de los acontecimientos relacionados con las elecciones y que promueva una variedad de puntos de vista y opiniones, además de informar sobre las noticias.

La intervención de terceros en el proceso, habitualmente actores de terceros Estados o de sus hubs, también cambia la lógica jurídica tradicional, que limitaba el alcance de la regulación electoral a candidatos, partidos, gobiernos y medios de comunicación. Vincular la responsabilidad de las publicaciones a la compra de publicidad con la exigenia del registro de las empresas que hagan publicidad electoral es una de las propuestas que podría ayudar a dar respuesta a los frecuentes abusos de la intervención de terceros en las campañas.

Aquí también los organismos electorales, conocedores de los intentos de influencia indebida durante los procesos, pueden asumir un papel proactivo con propuestas normativas como las elevadas por el Tribunal Supremo de Elecciones de Costa Rica o el Tribunal Electoral de Panamá, de cara al próximo proceso electoral.

 

5.2.2    Educación

Por último, dentro de las soluciones estructurales, las respuestas pasan también por cambios en la conducta personal de los afectados. El componente educativo frente a la desinformación no se puede desdeñar. Para mantener la libertad de conformarse un juicio y tomar una decisión es necesario reforzar la alfabetización digital. No se trata tanto de incidir sobre el conocimiento de los contenidos, sino de dar instrumentos adecuados para que, desde la responsabilidad individual y con libertad, podamos afrontar esos problemas complejos. Sería este tipo de educación, centrada en mejorar la capacidad de atención, la participación, la colaboración, la lógica de las redes y el espíritu crítico, la que nos permitiría detectar la desinformación (crap detention) y sus lógicas (Rheingold, 2010). En esta labor se han concentrado también organismos electorales como el de Panamá, Costa Rica, México, Perú o Ecuador.

 

5.2.3    El papel de las plataformas

Dado el peso que la tecnología ha adquirido en las campañas electorales, sus actores, las plataformas tecnológicas, toman un papel protagónico en aquellas. Como consecuencia de la presión externa, estas han ido asumiendo conciencia de su responsabilidad, y han adoptado, en consecuencia, algunas medidas. Sirva como resumen de este proceso las 9 recomendaciones que el Overseigh Board (2024) de Meta ha realizado a la plataforma en materia electoral:

-       Establecer políticas en esta área, pero sobre todo ejecutarlas, invirtiendo los recursos necesarios para hacerlo de manera eficaz.

-       Establecer estándares internacionales, sin discriminaciones en función del mercado, lo que paradójicamente puede penalizar a países donde los derechos humanos peligran.

-       Incluir en sus políticas de moderación en periodo electoral la violencia, priorizando su moderación rápida y las sanciones.

-       Protegerse frente al uso de la desinformación por parte del gobierno o su utilización como excusa para suprimir el discurso crítico, especialmente en el entorno electoral.

-       Reforzar la motivación de las decisiones que suprimen la libertad de expresión (para que resulten necesarias y proporcionadas).

-       Considerar el papel de la IA en estos procesos y la necesidad de establecer estándares clares para el contenido generado por IAG y fakes (deep o cheap).

-       Proteger a periodistas, sociedad civil y la oposición del abuso online.

-       Transparentar las medidas adoptadas y los errores cometidos.

-       Priorizar la respuesta a las campañas coordinadas.

En esta línea de actuar sobre las plataformas, la Unión Europea ha aprobado el Reglamento sobre transparencia y segmentación de la publicidad política, el cual aumenta las obligaciones de transparencia de la publicidad política, que debe identificarse como tal y ofrecer información básica sobre el patrocinador, la elección con la que están vinculados, el importe invertido y las técnicas de segmentación utilizadas. Además, restringe para este tipo de publicidad política la microsegmentación que, a partir de ahora, solo podrá realizarse con datos recopilados directamente del sujeto, con su consentimiento, explícito y distinto, para este uso. Además, prohíbe en todo caso la utilización para esta microsegmentación de datos personales considerados de categoría especial, como los que afectan a la raza, la etnia o las opiniones políticas. Por último, y para evitar injerencias externas, prohíbe la contratación de publicidad por parte de organizaciones de terceros países, durante los tres meses previos a la votación.

La Ley de Servicios Digitales (DSA) también tiene un efecto directo en el papel que las plataformas desempeñan en las elecciones, al regular la moderación del contenido en línea y armonizar las regulaciones nacionales relativas al contenido ilegal, la publicidad y la desinformación. En concreto, se establecen mecanismos que permitan a los usuarios reportar estos contenidos, se garantiza la impugnación de las decisiones tomadas por los moderadores de las plataformas, y se refuerza la transparencia de las plataformas, incluyendo, por ejemplo, la de los algoritmos utilizados para recomendaciones. Para las plataformas de muy gran tamaño, que alcanzan a más del 10% de la población de la Unión Europea, se establece explícitamente la obligación de mitigar los riesgos sistémicos relacionados con los procesos electorales, lo que dio lugar a una serie de recomendaciones específicas para las elecciones al Parlamento Europeo del año 2024, que incluían reforzar sus procesos internos en función del riesgo potencial, mejorando su capacidad de mitigación ante estos comportamientos; aplicar medidas de reducción del riesgo; promover la información oficial sobre los procesos electorales, iniciativas de alfabetización mediática y adaptar sus sistemas de recomendación para capacitar a los usuarios y reducir la monetización y la viralidad de los contenidos que amenazan la integridad de los procesos electorales. Además, la publicidad política debe etiquetarse claramente como tal, en línea con el nuevo Reglamento sobre la transparencia y la segmentación de la publicidad política, y señalar expresamente, cuando se produzca, el uso de IA generativa. Se insta, además, a la cooperación con las autoridades nacionales y de la UE, expertos independientes y organizaciones de la sociedad civil, especialmente con el Grupo de Trabajo del Observatorio Europeo de los Medios Digitales (EDMO). Por último, se recomienda adoptar un mecanismo de respuesta a incidentes que puedan tener un efecto significativo en el resultado o la participación electoral y la evaluación de la eficacia de las medidas mediante revisiones poselectorales, fomentando el control por terceros para garantizar que las medidas aplicadas sean eficaces y respeten los derechos fundamentales.

 

5.2.4    El papel de los organismos electorales

Frente a esta tendencia en que las plataformas sociales y los proveedores de servicios tecnológicos, que concentran en esta materia verdaderos poderes legislativo, ejecutivo y judicial, es necesario recuperar la división de poderes. Sus respuestas crean de facto verdaderos marcos jurídicos por la vía de los hechos, ante lo que es necesario establecer un marco jurídico firme para hacer frente con seguridad jurídica a este reto. Es necesario instaurar regulaciones, de carácter transnacional o, al menos, coherentes con los estándares internacionales, coordinadas y que homogenicen el trato de las plataformas sociales. Mecanismos útiles para que la coerción estatal sea efectiva y llegue a las plataformas. Para lograrlo es necesario acabar con esa distinción puramente artificial en la situación actual entre autorregulación y regulación. Hoy en día no caben más mecanismos para hacer frente a estos problemas que los que algunos están empezando a llamar la corregulación (Gómez, 2016). Es necesaria una acción conjunta y determinada en la que la última palabra la deben tener siempre los actores públicos, especialmente de naturaleza jurisdiccional, haciendo a las plataformas partícipes de la ejecución de esa regulación y teniéndolas en cuenta incluso en el proceso regulatorio.

Estos avances normativos resultarán insuficientes sin una auténtica capacidad de exigir el cumplimiento del marco jurídico. Actualmente, no hay alternativa tecnológica. Hoy para su eficacia los organismos del Estado no cuentan con la capacidad de ejecución suficiente de manera autónoma, sino que necesitan también la colaboración de las plataformas. En esa dirección apuntan los trabajos de la nueva directiva europea, el papel vicario de las redes sociales, que son las que ejecutarían en nombre del Estado. Es una cooperación multidisciplinar, donde tienen que entrar las plataformas, las autoridades electorales, la academia, etcétera. Cada uno de estos actores es clave a la hora de detectar las amenazas y tratar de dar una respuesta, y si no se cuenta con todos ellos resulta complicado una respuesta eficaz.

Además, son necesarias medidas que garanticen que esas decisiones adoptadas por las plataformas respeten los estándares democráticos. Garantizar que sus decisiones se realicen a través de un procedimiento claro, transparente y sin discriminación en el que exista la posibilidad de recurrir la decisión, e incluso la obligación de darle respuesta motivada, y que sus decisiones deberían ser siempre susceptibles de ser sometidas al control de una autoridad electoral. Aquí es donde el papel de los organismos electorales resulta indispensable. Es necesario dotar a las autoridades de competencias y la capacidad que les permitan hacer frente a estas nuevas amenazas, pudiendo tomar decisiones y afrontar estas disfunciones informativas de manera eficaz, en tiempo y forma. En ese sentido, hay que establecer autoridades y roles claros, estándares bien definidos, mecanismos de comunicación confiables, canales de denuncia claros y tiempos de respuesta adecuados a los tiempos de la amenaza.

Los organismos electorales son los únicos con legitimidad para llevar a cabo estas acciones que pueden poner en riesgo derechos fundamentales. De ahí la necesidad de que las instituciones puedan dotarse de capacidad de respuesta ante estas amenazas, lo que pasa, sobre todo en lo inmediato, por generar marcos normativos adecuados. En este punto conviene alertar como hemos hecho, en la misma línea de la tipicidad y reserva de ley, sobre el hecho de que algunos tribunales han convalidado auténticas piezas de legislación desarrolladas a través de la potestad reglamentaria de las autoridades administrativas. Aunque la interpretación de los tribunales no considera estas decisiones como cambios normativos, sino como la modulación de principios ya existentes, la materialización a través del desarrollo de principios constitucionales y la proyección de estándares internacionales generales. Pero para poder llevar a cabo esta labor en un marco de seguridad jurídica, los organismos electorales deben contar con un marco jurídico, competencias y recursos que les permitan responder a estas nuevas amenazas. En ese sentido, hay que establecer autoridades, roles y estándares claros, canales de comunicación y de denuncia confiables y tiempos de respuesta adecuados.

En resumen, los órganos electorales vienen ya desarrollando acciones estructurales y liderando las respuestas ante las amenazas informativas. En las elecciones celebradas en los últimos años Perú, Colombia, Costa Rica, Panamá, México, Ecuador, Uruguay, Argentina… o bien llevaron a cabo acciones de prevención, monitorización e información, o una política de convenios con las plataformas (más o menos satisfactorias). Así se puede decir que todos los organismos electorales, incluso aquellos que no han enfrentado casos directamente relacionados con este tipo de disfunciones informativas han desarrollado políticas para tratar de hacerles frente.

 

5.2.5    Una respuesta integral y estratégica

A la luz de todo lo anterior no queda duda de que la respuesta debe ser una integral, desarrollada de manera transversal para hacer frente a una amenaza híbrida, involucrando desde un punto de vista interno la parte administrativa y jurisdiccional, con la tecnología y la comunicación.

La eficacia de la respuesta se construirá sobre la experiencia comparada y sobre la continuidad que permite que, a pesar de los cambios periódicos en las autoridades electorales, la lucha contra las manipulaciones informativas forme parte de la labor ordinaria de los organismos electorales, conscientes de que las percepciones se generan con el tiempo y la repetición, y aunque se refuercen durante el periodo de campaña electoral, se van sembrando con antelación, lo que requiere una acción contraria permanente.

Además, la previsión resulta clave, anticipando los escenarios de crisis y las posibles respuestas, y desarrollando respuestas proactivas, y no solo reactivas, que permitan ir construyendo confianza. Acciones como la preparación de los equipos internos del organismo, así como la construcción y fortalecimiento de alianzas con la sociedad, los medios y especialmente con las plataformas, que no pueden improvisarse tras la convocatoria electoral.

Esta anticipación permite, además, trabajar estratégicamente sobre la base de un plan estratégico que establezca objetivos realistas, claros y dote al organismo de los recursos necesarios para lograrlos, sin tratar de ir más allá de sus capacidades y sus competencias, a través de mecanismos de seguimiento y retroalimentación que deben servir tanto para definir la estrategia como para ir ajustándola a la evolución de los acontecimientos.

Actuaciones como la del TSE de Brasil en las elecciones presidenciales de 2022 son un buen ejemplo de esta respuesta integral (Rubio y Andrade, 2023). También, más recientemente, puede servir de modelo la Recomendación sobre procesos electorales inclusivos y resilientes en la UE y con vistas a reforzar el carácter europeo y el desarrollo eficiente de las elecciones para el Parlamento Europeo, que nos ofrece un buen ejemplo de la integralidad y transversalidad de este tipo de respuestas al proponer medidas para minimizar los riesgos de injerencia de terceros países a través del control de la financiación de partidos políticos y sus campañas y reforzar las obligaciones de transparencia de los partidos y candidaturas; la adopción de códigos de conducta que faciliten la integridad electoral y las campañas justas, fomentando un discurso político inclusivo y desterrando comportamientos manipuladores como la generación, o difusión de falsedades (incluidos los deepfakes), o aquellos que incitan al odio, así como el rechazo a la utilización de tácticas, técnicas y procedimientos inauténticos para difundir o amplificar mensajes políticos; promoviendo fórmulas de control independiente para el cumplimiento de los compromisos asumidos. Por último, se anima a los Estados a proteger el entorno informativo y garantizar que los votantes reciban información correcta, promoviendo proyectos de sensibilización y alfabetización mediática para hacer frente a la manipulación de la información, la injerencia y la desinformación relacionadas con las elecciones, así como el fortalecimiento de respuestas rápidas tanto de prevención (prebunking) como de refutación (debunking).

 

6.       En defensa de la legitimidad electoral

Hace muchos años (2000) Pedro de Vega advertía que: “Como momento decisivo en la vida democrática de cualquier país, las campañas electorales adquieren el valor de testimonio en el que aparecen reflejadas las grandezas y miserias de la democracia moderna” (p. 15). En los últimos tiempos, hemos visto cómo se multiplican en todo el mundo las denuncias sobre la debilidad del sistema electoral. Esta susceptibilidad tiene una relación directa con la tecnología e incide en las distintas fases del proceso.

El auge de las tecnologías de la información ha impactado notablemente en la forma de hacer política y, específicamente, de realizar campañas electorales. Estas siempre han tratado de aprovechar los últimos avances tecnológicos para lograr una posición competitiva favorable.

Mientras que la transmisión del mensaje antes era de exclusividad de los partidos políticos y los medios de comunicación, ahora son los ciudadanos quienes tienen un protagonismo que se une a un cambio en los espacios y tiempos comunicativos. Además, ahora podemos hablar prácticamente de la individualización de la comunicación, producto del uso de tecnologías que permiten un mejor conocimiento del electorado prácticamente hasta la personalización de los mensajes. La tradicional publicidad ha sido sustituida por nuevas formas de persuasión que combinan mecanismos de publicidad, propaganda y, en ocasiones, de manipulación. A esto habría que sumar el papel que están desempeñando las plataformas digitales y que sin duda continuarán realizando en este ámbito.

Todo esto provoca una transformación del concepto mismo de campaña electoral, que influye en el modo de decidir y ejercer el voto. La tecnología aumenta las posibilidades de alterar el debate de ideas que debería constituir la base de una campaña a lo que se une la posibilidad de que terceros, empresas o Estados orquesten campañas híbridas, mezcla de ciberataques y desinformación, que amenazan la legitimidad de los gobiernos democráticos.

Los últimos procesos electorales han puesto de manifiesto la importancia del debate para la democracia y la necesidad de ofrecer respuestas y esto es una gran oportunidad para los organismos electorales y también para la sociedad civil y, en consecuencia, para la colaboración entre ambas.

Algunos tribunales lo han entendido. La lógica de la información se basa en la CONFIANZA. La sociedad civil tiene esa CONFIANZA entre su comunidad. De ahí la importancia de que los organismos electorales construyan sus redes de confianza con la sociedad civil, las redes de verificadores, los divulgadores y los educadores. El reto es enorme, pero les aseguro que, por lo que está en juego, merece la pena.

 

Referencias

BBC News Mundo (2023). ChatGPT. “Mi peor temor es que causemos un daño significativo al mundo”: el testimonio de Sam Altman creador del chatbot de AI, ante el Congreso de EE. UU. https://www.bbc.com/mundo/noticias-internacional-65617550

Campos Domínguez, E. y García Orosa, B. (2018). Comunicación algorítmica en los partidos políticos: automatización de producción y circulación de mensajes. El profesional de la información, 27(4), 469-777.

Comisión Europea (2020). Plan de acción para la democracia europea. https://ec.europa.eu/commission/presscorner/detail/es/ip_20_2250

Comisión Europea (2022). Código de buenas prácticas frente a la desinformación. https://digital-strategy.ec.europa.eu/en/library/2022-strengthened-code-practice-disinformation

Comisión Europea (2023) Recomendación sobre procesos electorales inclusivos y resilientes. https://commission.europa.eu/document/c797a16d-f2f6-4540-baf8-a05e8bcb33df_en?prefLang=es

De Vega, P. (1985). Significado constitucional de la representación política. Revista de Estudios Políticos, (44), 25-45.

De Vega, P. (1998). Mundialización y derecho constitucional. La crisis del principio democrático en el constitucionalismo actual. Revista de Estudios Políticos, (100), 13-56.

De Vega, P. (8 de marzo de 2000). Campañas electorales y democracia. ABC.

Fung, A. y Lessing, L. (2023). Cómo la AI podría apoderarse de las elecciones y socavar la democracia: una campaña política impulsada por AI podría ser todo para todos. https://www.scientificamerican.com/article/how-ai-could-take-over-elections-and-undermine-democracy/

Gómez Iglesias, V. (2016). De la autorregulación a la corregulación. Estudio de su aplicación en los principales países europeos. El caso Español. [Tesis de doctorado, Universidad de Navarra, España].

Habermas, J, (1981). Historia y crítica de la opinión pública. La transformación estructural de la vida pública. G. Gili Edición.

Ley 1060 de 2006. Por la cual se modifican las normas que regulan la impugnación de la paternidad y la maternidad. 26 de julio de 2006. D.O. N.o 46341.

Ley 2065 de 2022 (Ley de la Unión Europea). Ley de Servicios Digitales (DSA). 16 de octubre de 2022.

Ley 1083 de 2024 (Ley de la Unión Europea). Ley de Libertad de los Medios de Comunicación. 11 de abril de 2024.

ley 1689 de 2024 (Ley de la Unión Europea). Ley de Ciberresiliencia. 13 de junio de 2024.

Oversight Board (2024). Contente moderation in a historic election year: key lessons for industry. Oversight Board.

Rheingold, H. (2012). Atención y otras alfabetizaciones sobre redes sociales del siglo XXI. Revista EDUCASE, 45(5), 14-24.

Rubio Núñez, R. (2004). Los grupos de presión. Centro de Estudios Políticos y Constitucionales.

Rubio Núñez, R. (2018). La amenaza tecnológica en los procesos electorales. Una respuesta jurídica. Revista de Privacidad y Derecho Digital, 3(11), 109-146.

Rubio Núñez, R. y de Andrade Monteiro, V. (2023). Preserving trust in democracy: The Brazilian Superior Electoral Court's quest to tackle disinformation in elections, South African. Journal of International Affairs, 30(3), 497-520. DOI: 10.1080/10220461.2023.2274860

Rubio Núñez, R., Alvim, F.F. y de Andrade Monteiro, V. (2024). Inteligencia artificial y campañas electorales algorítmicas. Disfunciones informativas y amenazas sistémicas de la nueva comunicación política. Centro de Estudios Políticos y Constitucionales.

Sánchez Muñoz, O. (2020). La regulación de las campañas en la era digital: desinformación y microsegmentación en las redes sociales con fines electorales. Centro de Estudios Políticos y Constitucionales.

Unión Europea (2024). Reglamento 900 sobre transparencia y segmentación en la publicidad política. 13 de marzo de 2024.

 



* Artículo base de la conferencia pronunciada en el Tribunal Supremo de Elecciones de Costa Rica con motivo del Día de la Democracia Costarricense el 7 de noviembre de 2024.

** Español, profesor de derecho, correo Rafa.rubio@der.ucm.es. Doctor en Derecho Constitucional (premio extraordinario), catedrático y director del Grupo de Investigación sobre Tecnología y Democracia en la Universidad Complutense, cuenta con más de 25 años de experiencia docente en universidades de todo el mundo.

 

[1] Video, imagen o audio generado que imita la apariencia y el sonido de una persona.

[2] Filtro de burbuja con algoritmos que rastrean donde se va a hacer clic cada vez que se navega en internet.

[3] Modelo de lenguaje creado con el propósito de mantener una conversación con el usuario.

[4] El machine learning, o aprendizaje automático, campo de la inteligencia artificial (IA) que desarrolla algoritmos y modelos estadísticos para que los sistemas de computación puedan realizar tareas sin instrucciones explícitas

[5] Entre los requisitos se encuentran su identificación como campaña política, la autenticación de aquellos que quieran contratar campañas de publicidad de esta naturaleza, la prohibición de comprar publicidad desde lugares externos al lugar en el que se celebra la elección y la creación de una librería pública (que se mantendrá durante 7 años) donde se pueden consultar todas las campañas de esta naturaleza, y que ofrece información básica, como la inversión, el público objetivo, o las fechas en las que se ha distribuido la campaña sobre cada una de las piezas publicitarias (Facebook, Instagram y Google).

[6] De ahí que se plantee con fuerza la idea de delegar la responsabilidad y la competencia para llevar a cabo esta labor en las plataformas sociales, pero estableciendo procedimientos y mecanismos de control. En la actualidad el más ambicioso, desde la perspectiva de la autorregulación, es el Oversight Board, mecanismo de supervisión de Facebook. Se trata de un mecanismo de autorregulación que ni reemplaza ni busca reemplazar la acción estatal. Una entidad jurídica independiente, basada en una carta fundacional genérica que, en el ejercicio de su autonomía, ha ido creando sus propias reglas internas de funcionamiento de toma de decisiones y que cuenta con presupuesto fijo y autónomo. Su misión principal es la revisión de la acción de la plataforma con base en el derecho internacional de los derechos humanos, pero lo hace sobre casos emblemáticos y Facebook está obligado a cumplir resoluciones. En sus decisiones se cuestionan no solo la decisión, sino incluso las reglas sobre las que se adoptó la decisión. Para realizar su trabajo tiene acceso privilegiado a la plataforma, a la que puede elevar sus demandas de información que no siempre reciben respuesta. Además, puede hacer recomendaciones que no son obligatorias para la plataforma, como la propuesta de una comisión para evaluar si la moderación de contenidos tiene un sesgo. Así tanto en la desinformación como en la publicidad la única normativa aplicable resulta ser la propia de las plataformas sociales y la única autoridad la de estos mismos organismos que adoptaron sin aviso ni procedimiento alguno decisiones de especial transcendencia que tuvieron consecuencias directas en el derecho de los ciudadanos a recibir información durante el proceso electoral.

[7] Recurso que proporciona información sobre el Reglamento de Servicios Digitales (DSA), ley que se aplica a todos los servicios que se prestan por internet en la Unión Europea. Su objetivo es garantizar la protección del consumidor y la debida diligencia.