PRIMER SEMESTRE 2025 NÚMERO 39 |
ISSN: 1659-2069 |
Desinformación: nuevas amenazas para la integridad electoral*
https://doi.org/10.35242/RDE_2025_39_1
Nota del
Consejo Editorial
Recepción: 7 de noviembre 2024.
Revisión,
corrección y aprobación: 13 de enero de 2025.
Resumen: Analiza
el rol de las nuevas tecnologías como herramientas de comunicación en los procesos
electorales, especialmente en las campañas consideradas como un proceso
comunicativo con un código propio; sin embargo, su uso disfuncional es
considerado un ataque dirigido a la infraestructura más crítica de la
democracia: la confianza.
Palabras
clave: Comunicación política / Desinformación /
Noticias falsas / Posverdad / Proceso electoral / Campaña política /
Debilitamiento de la democracia.
Abstract: It analyzes the role of new technologies as communication tools in electoral processes, especially in campaigns considered as a communicative process with its own code, however, its dysfunctional use is considered as an attack targeting the most critical infrastructure of democracy, trust.
Key Words: Political communication. / Misinformation / Fake news / Post-truth / Electoral process / Political campaign / Weakening of democracy.
1.
Introducción:
la información en la democracia y en la campaña electoral
En la sociedad del conocimiento, la
información es la materia prima fundamental de la democracia. La comunicación
no es un elemento accesorio, sino que forma parte esencial de la democracia misma,
hasta el punto de que la representación política solo es explicable desde la
publicidad (Habermas, 1981); “la traducción a nivel político y parlamentario de
la opinión pública burguesa concebida como producto de la discusión entre
particulares en el seno de la sociedad” (De Vega, 1985, p. 33).
Esta información adquiere especial
importancia en las campañas electorales. Si entendemos la política como la
mediación entre visiones del mundo contrapuestas, la campaña electoral sería su
momento de socialización y opción periódica. Y aunque no podemos decir que las
campañas sean la búsqueda de la verdad, sí que la veracidad debe ser una regla
del juego indispensable en ellas.
Inicialmente se han considerado las campañas
como un momento comunicativo con un código propio, en el que son admisibles afirmaciones,
críticas y promesas más dirigidas a persuadir que a informar, pero hoy se
reconocen las disfunciones informativas como un ataque dirigido a la
infraestructura más crítica de la democracia, la confianza.
2.
Tecnología
y democracia
Es una realidad incontestable que la
irrupción de las tecnologías de la información ha cambiado nuestra sociedad y
está transformando también el mundo de la política. Mientras esto ha desatado,
en el ámbito de la teoría política, un apasionado debate, en el ámbito del
derecho constitucional, estas herramientas han pasado durante mucho tiempo
desapercibidas. Sin embargo, ante esta influencia tecnológica:
los fundamentos
teóricos clásicos sobre los que se asentaba la democracia parecen tambalearse,
insuficientes ante las nuevas circunstancias políticas, económicas y sociales.…
Ante esta situación parece obligatorio optar por una fórmula de análisis
teórico práctica que, sin ignorar las nuevas situaciones, actores y sistemas
políticos, pueda servir para plantear un pensamiento coherente, y logre aportar
nuevas luces, con las que dirigir los avances políticos de la sociedad. (Rubio,
2004, p. 17)
Aunque la
tecnología también ha afectado al ámbito político, como advertía De Vega (1998)
estos cambios no se han visto acompañados de una “amplitud de los espacios
políticos” (p. 14). Mientras las tecnologías transforman las relaciones
comerciales o revolucionan la forma en que se entablan relaciones sociales,
“continúa siendo el Estado el punto de referencia y el marco obligado donde se
establecen los supuestos reguladores de la vida social y donde se definen y se
expresan democráticamente los principios valorativos ordenadores de la
convivencia” (1998. p. 14).
Sin embargo, hoy vemos con preocupación cómo
surgen modelos de fuerte base tecnológica que muestran una mejor adaptación a
la transformación digital que los sistemas liberales. Sus efectos nos llevan a
plantear la relación del Estado con la tecnología como una materia del derecho constitucional.
3.
Tecnología
y elecciones
El uso de la tecnología también ha
introducido una serie de elementos diferenciadores en los procesos electorales.
Su irrupción en la sociedad y, sobre todo, la generalización de su uso ha
provocado cambios en la forma de difusión de la información y en las
posibilidades de organización política, con especial importancia en las
campañas y, en particular, en el uso de publicidad segmentada, en los
mecanismos de financiación, o en la captación y organización de voluntarios.
No se trata de innovaciones
exclusivas de la campaña electoral, sino que afectan a todo el proceso, desde
la presentación de las candidaturas hasta la proclamación de electos. La
tecnología ha permitido, por un lado, extender el ejercicio del derecho al voto,
ampliar la participación de aquellos que se encuentran fuera de su país,
mejorar su transparencia y las posibilidades de control y aumentar la eficacia
del sistema y la confianza en este, por ejemplo. Por el otro, también
se han multiplicado las amenazas de ataques tecnológicos que buscan alterar el
sistema, de manera general o selectiva en las fases clave del proceso. Esto se
hace especialmente patente durante las campañas electorales, en las que la
tecnología se ha convertido en un elemento diferenciador.
Además de los cambios cuantitativos que
permiten obtener ventaja a aquellos que las adoptan con anterioridad, estas
innovaciones tecnológicas suponen cambios en aspectos relevantes a lo largo del
proceso. Es tal el protagonismo de la tecnología en
los últimos años que hasta ha llegado a caracterizar las sucesivas elecciones,
al menos en las campañas presidenciales norteamericanas, pioneras en el uso de
la tecnología en campaña. Así se ha venido hablando de las elecciones de Meetup (2004), de myBO y las
redes sociales (2008), de la microsegmentación (2012), o de Twitter y la
publicidad en Facebook (2016) y cuando parecía que habíamos normalizado
el uso electoral de la tecnología, han llegado las elecciones de la inteligencia
artificial (IA) (2024).
Dentro de este protagonismo,
hemos conocido distintas acciones, como la capacidad de perfilar a los usuarios
y adaptar la comunicación, pagada u orgánica, a estos perfiles (práctica
popularizada por la empresa Cambridge Analytica tanto en las elecciones presidenciales de
Estados Unidos en 2016 como en la campaña del referéndum para la salida del
Reino Unido de la Unión Europea, Brexit); la interferencia de personas o grupos
distintos de los partidos políticos tanto nacionales como extranjeros (Rusia en
las elecciones de Rumanía en 2024); la creación de perfiles falsos (bots automatizados o gestionados manualmente, un fenómeno
global) para crear corrientes de opinión favorables (como en el referéndum
sobre el aborto en Irlanda de 2018); o el uso de plataformas de comunicación
interpersonal para distribuir masivamente mensajes de desinformación (en la que
destaca el uso de WhatsApp que
hizo en la campaña presidencial brasileña Jair Bolsonaro en 2018 (Sánchez,
2020).
Si a esto unimos la irrupción de la IA y sus
posibilidades, podemos hacernos una idea de la profundidad del cambio. La automatización de algunos de
estos procesos, a través de los algoritmos, y especialmente la integración de
sistemas de inteligencia artificial en la maquinaria electoral están
transformando la dinámica de los procesos electorales en el contexto de la “comunicación
algorítmica” (Campos y Garcia, 2018). De esta
manera, se han incorporado a las campañas mecanismos de escucha masiva y
perfilado automatizado del votante, así como sistemas de comunicación
personalizada a través de distintos canales que están aumentando el alcance y
la eficiencia de las campañas de desinformación (Rubio, Alvim y Monteiro, 2024).
Este
tipo de comunicación electoral afecta a la “arquitectura de decisión” del votante, al propiciar una opinión cada vez más
personalizada basada en segmentación y microsegmentación; la generación de
contenido que a veces desdibuja la distinción entre no ficción y ficción,
especialmente con el uso de deepfakes[1]; y la difusión y redifusión de estos. De ahí que se
señalen como riesgos del uso de estas tecnologías su efecto amplificador, la
difusión de desinformación y teorías de la conspiración, y la creación y
consolidación de cámaras de eco y filter bubbles[2] (Rubio, Alvim y
Monteiro, 2024).
Así lo
señaló Sam Altam en su comparecencia ante el Senado
de los Estados Unidos en mayo de 2023 cuando, preguntado si pensaba que se
podían utilizar los modelos de lenguaje basados en IA como ChatGPT[3] para hacer que los votantes se comportaran de determinada
manera, mostró su preocupación de que estos mecanismos puedan ser utilizados
para persuadir, involucrar y manipular en relaciones personales con los
votantes (BBc News, 2023).
Fung y Lessig (2023) han puesto un nombre a este fenómeno que
materializaron en un artilugio denominado Clogger, y cuyas
posibles utilidades analizaron. El punto de partida de lo más
determinante en el “nuevo orden algorítmico”, del que forma parte la IA, es que
condiciona de manera determinante nuestro acceso a la información, ya que la predetermina
selectivamente.
Además
de poder manipular los algoritmos de los motores de búsqueda para que los
sitios web o las noticias que contengan información falsa aparezcan primero, la IA supondría una escalada
gradual en la eficacia de los mecanismos de microsegmentación e influencia en
el comportamiento, presentes en las campañas desde principios de siglo. De esa
forma convierten la personalización
en una realidad asequible, debido a su
condición individualizada, dinámica y adaptativa: 1) la generación, gracias a
sus modelos de lenguaje, de mensajes en distintos formatos realmente
personalizados sin un límite real en cuanto que todo el proceso de
segmentación, creación y distribución del mensaje estará automatizado; 2) el
uso de técnicas de aprendizaje reforzado, basadas en el machine learning[4] y la prueba y error, para generar una serie de mensajes
que, en función de la respuesta, vayan aumentando su nivel de persuasión acrecentando,
con cada uno de ellos, su eficacia persuasiva; 3) este aprendizaje se
alimentará, también, de la respuesta de los demás votantes, a través de
conversaciones dinámicas en las que cada vez se afinan más los mensajes que
están funcionando en ese momento con todos adaptándolos a cada uno.
Además,
apuntan también los autores que esta labor de persuasión podrá desarrollarse
sin utilizar mensajes estrictamente políticos, y ponen como ejemplo la
posibilidad de inundar los mensajes de los votantes más cercanos a los
oponentes políticos de información sobre aficiones mucho más atractivas que la
política, o de mensajes o anuncios desagradables que “oculten” los mensajes
políticos. E incluso a través de la persuasión a los grupos de confianza del
votante al que se pretende persuadir, creando microcomunidades
autorreferenciales, silos de verdades distintas compartidas solo por iguales.
El
segundo problema es que estas técnicas están desvinculadas de categorías como
verdadero o falso, por lo que el objetivo de conseguir un cambio de voto está
por encima del de facilitar información precisa. Con el añadido, y este sería
el tercer inconveniente, de que los afectados no tendrían forma de saber las
estrategias utilizadas en este ejercicio de persuasión, lo que los deja más
expuestos a su influencia. Como recordaba Charles Baudelaire, el mayor truco
del diablo es hacernos creer que no existe.
A este
razonamiento de los profesores norteamericanos cabría añadir una cuarta razón:
el uso de estas técnicas por parte de uno de los candidatos, como cualquier
tecnología que irrumpe en campaña, generaría un efecto de imitación, que
provocaría en un breve espacio de tiempo su generalización y un riesgo de
convertir la campaña en una guerra entre tecnologías (guerra cognitiva).
En esta
guerra triunfaría la de mayor impacto, lo que supondría en la práctica el fin
de la democracia, pese a su apariencia, al mantenerse los elementos propios de
un proceso electoral como discursos, anuncios, mensajes, votación y recuento,
pero en un espacio donde la opinión pública además de fragmentada sería
inducida, irreal y falsificada.
4.
Tipos
de disfunciones informativas
En un nuevo escenario de poder
donde el poder de producción es sustituido por el poder de definición, y donde
la información es el instrumento clave para definir y definirse, calificamos como disfunción informativa electoral: todo
proceso que, afectando a la información y su tratamiento, pueda suponer una
alteración del funcionamiento ordinario del proceso electoral.
Las disfunciones informativas más
habituales en periodo electoral pueden ser las siguientes: el uso de estrategias de segmentación para trasladar
información de campaña a través de mecanismos, habitualmente masivos y
automatizados; la desinformación en sus diferentes facetas; el uso de bots que llevan a cabo campañas coordinadas de apoyo o
ataque; la clonación de medios de referencia con apariencia del medio
tradicional, o simplemente la creación de fuentes informativas con apariencia
de medios (medios express); las desigualdades
en el acceso a la información; la suplantación de identidades o la atribución
de actuaciones o declaraciones inexistentes, con el uso de deepfakes.
Pero también los ataques informáticos que alimentan la percepción de debilidad
del sistema y la facilidad del fraude; la actuación de las administraciones
públicas a través de sus perfiles sociales (tanto con la contratación de
publicidad como con publicaciones); las publicaciones fuera del periodo de
campaña (veda y precampaña); la suspensión o el cierre de canales, o la
retirada de contenido, por parte de las plataformas tecnológicas durante el
periodo electoral; el uso de la violencia política en las redes (especialmente
contra las mujeres) y la intervención de terceros, tanto con la compra de
publicidad como a través de acciones de comunicación orgánicas que buscan
eludir los controles electorales (tan diversas como la manifestación pública
del apoyo, campañas masivas de respaldo en las redes o la publicación de
encuestas de toda naturaleza).
Es importante señalar que estas
disfunciones, que se pueden dar de manera puntual u ocasional, amenazan a la
democracia cuando tienen carácter sistemático, estructural. Países y
organizaciones emplean ya recursos de manera estable, y no solo en periodo
electoral, para actividades estructurales de manipulación informativa. Estos conforman
auténticos ejércitos híbridos dedicados en exclusiva a este tipo de labores
como un instrumento más dentro de su política de defensa y su política
internacional. Pero, además de los países, este tipo de amenazas estructuradas
pueden venir también de la mano de los propios partidos (con capacidad
operativa y financiera para llevarlas a cabo) o de otros sujetos que, por
motivos diferentes como los económicos, pueden interferir en la elección.
De ahí que una de las condiciones
para responder eficazmente a este tipo de amenazas pasa por dejar de ver la
desinformación como algo anecdótico, aplicable a cualquier información errónea
dentro del proceso electoral, y empezar a tratarla como algo estructural y con
un fuerte contenido estratégico, basado en la construcción de narrativas falsas
mantenidas en el tiempo y no en manipulaciones informativas puntuales.
Además, también es importante señalar
su eficacia. Aunque las personas son, generalmente, capaces de discernir lo verdadero de lo
falso y son bastantes escépticas frente a la desinformación en las elecciones, este
tipo de campañas se desarrollan en los márgenes, en los momentos de la decisión
del voto, sobre un porcentaje pequeño de votantes y en climas políticos y
sociales en tensión, aprovechando la dimensión cada vez emocional de las
campañas, donde los sentimientos (especialmente los negativos como el odio o el
miedo) tienen un peso mayor que la razón en la toma de decisiones políticas.
Por último, a la
hora de hablar de manipulaciones informativas con intención electoral, conviene
conocer también las motivaciones. No se trata, como podría parecer, únicamente
de apoyar a un candidato, habitualmente a través del desgaste de sus oponentes,
sino que este tipo de actuaciones pueden buscar también deslegitimar al
elegido, sea quien sea, para sembrar inestabilidad y debilitar al país, o
simplemente mejorar la economía de los que participan en ella, como personajes
principales o secundarios.
5.
La
búsqueda de respuestas
La percepción del riesgo para la
democracia ha aumentado en consecuencia y ha ido planteando distintas formas de
respuesta. En esta respuesta es
necesario distinguir entre respuestas inmediatas, que quizá son las más
difíciles pero las más obvias, y respuestas estructurales, que a la luz de lo
señalado son las más importantes, sin que ni las unas ni las otras pongan en
riesgo derechos fundamentales.
5.1 Respuestas
inmediatas
La respuesta inmediata
ante la desinformación pasa por detectar, reaccionar y responder. Esto es, por
la velocidad en su identificación y, sobre todo, en la demostración de su
falsedad. Pero no siempre es posible. Por eso, en ocasiones habrá que optar por
la bajada de contenidos e incluso por la eliminación de cuentas, medidas que,
junto a aristas jurídicas, presentan una serie de problemas prácticos en su
aplicación. Con esa intención en México, Panamá, Brasil o Costa Rica, por
ejemplo, los organismos electorales establecen durante la jornada electoral un
sistema de respuesta basado en la monitorización exhaustiva, lo que, además de
la colaboración de las plataformas tecnológicas, requiere personal y
herramientas adecuadas, que alertan tempranamente sobre información errónea y
permitan dar una respuesta oficial antes de que la información se vuelva viral.
Es un hecho que, para ofrecer una respuesta,
las plataformas han comenzado a implementar medidas a fin de responder y
minimizar las amenazas a la democracia, y a su propio negocio, hasta el punto
de que actualmente, la mayoría de las decisiones adoptadas durante una campaña
electoral no lo son por los órganos electorales, sino por organizaciones
privadas como Meta, Twitter, WhatsApp o Tik Tok que, aunque puedan no afectar de manera determinante al
resultado electoral, alteran el normal desarrollo del proceso. Entre estas
medidas se encuentra la localización y eliminación de cuentas falsas (Facebook
y Twitter), la suspensión de cuentas de partidos o candidatos que puede llegar
hasta su eliminación (Twitter, Facebook, WhatsApp); la denuncia de “noticias
falsas” por parte de los usuarios, que son sometidas en la mayoría de los casos
a sistemas de moderación automatizada, y que delegan a plataformas de
verificación de contenidos (fact checking) la decisión sobre ese contenido en los casos
más problemáticos; la prohibición de la publicidad política (mantenida por
Twitter durante años) o el establecimiento de una serie de requisitos para
contratar publicidad política[5].
De este modo, unilateralmente las plataformas
han ido añadiendo distintas reglas al escenario electoral, a través de la
aplicación de los contratos privados. Esta forma sui generis de normativa electoral, resultado de una relación entre
particulares, es aplicada también de manera unilateral por las propias
plataformas, convertidas en nuevos árbitros electorales cuya única
“legitimidad” es el lugar privilegiado que ocupan en el mercado. Se establece
así un tipo de legislación y justicia electoral informal, sin criterio ni
procedimientos claros, lo que da espacio al abuso y la arbitrariedad[6]. Y esto genera
conflictos como los de hace unas semanas cuando la Comisión Europea alertaba
frente a la falta de actuación decidida de Meta en las elecciones europeas o, a
requerimiento de las autoridades rumanas, por el uso de Tik
Tok en las últimas elecciones presidenciales en
Rumanía, lo que ha dado lugar a sendos expedientes en aplicación de la DSA[7]. Y
es aquí donde adquieren importancia los organismos electorales que se perfilan
como interlocutores imprescindibles de las plataformas sociales para controlar
sus actuaciones y ordenar a las plataformas otras actuaciones, en aplicación de
la legislación electoral.
Sin embargo, esta
respuesta inmediata de los organismos electorales también plantea problemas. Por un lado, las decisiones
jurisdiccionales respecto de esta materia ponen sobre la mesa el asunto de cuál
es el límite a la solución jurisdiccional cuando no existe regulación por parte
del legislativo y la necesidad de distinguir entre acciones puntuales de
aquellas con efectos permanentes. Podemos decir que, en esta materia, los
organismos electorales han asumido un papel proactivo, con sentencias más
creadoras de derechos que intérpretes de este, asumiendo un papel de agentes
del cambio que adaptan la normativa en una materia concreta a una realidad de
evolución constante, con el objetivo de defender la democracia y la igualdad y
libertad de expresión. Por otro, vemos cómo las plataformas no desarrollan esta
labor de la misma manera en los distintos procesos electorales, en función,
fundamentalmente, del tamaño del mercado del país en cuestión, e ignoran con
frecuencia las decisiones de los organismos electorales, evitando la ejecución
de estas, lo que pone de manifiesto la dependencia operativa que los organismos
electorales tienen con las plataformas sociales y genera una cierta sensación
de impunidad que incentiva a los actores políticos a continuar con sus
manipulaciones informativas.
5.2 Respuestas estructurales
Junto a los problemas
señalados, la experiencia nos muestra que esta respuesta inmediata no es
suficiente.
a)
Comunicación
La lógica de disfunciones
informativas como la desinformación no es de hechos, sino de narrativas y es
aquí donde reside el principal problema de las respuestas estructurales. Hemos
visto ya muchas veces, en países como Estados Unidos, Perú o Brasil, cómo una
serie de fallos menores del sistema electoral son utilizados para construir una
narrativa de fraude que es recibida y amplificada por algunos medios y se
extienden masivamente por las redes sociales con la paradoja de que aunque los hechos mostrados han sucedido, nunca
permitirían alcanzar las conclusiones de fraude. Sin embargo, al sacarlos de su
contexto temporal y geográfico, provocan llegar a conclusiones falsas. Es esta
narrativa de fraude la que está generando en todo el mundo una gran
inestabilidad basada en las dudas sobre el proceso y el resultado electoral.
Aunque se ha extendido
por todo el mundo, casi como un slogan, la expresión “dato mata relato”,
podemos decir, que dicha afirmación no es más que un mal relato que no soporta
los datos y conduce a la ineficacia de muchas de las respuestas ofrecidas. A
las narrativas se debe responder con narrativas y eso requiere tiempo y
técnica. De ahí la importancia de reforzar la capacidad de comunicar de los
distintos actores involucrados.
La comunicación de los organismos
electorales, que durante los procesos fungen como fuentes oficiales, es la
respuesta estructural más eficaz, pero esta debe ser profesional, estratégica y
continuada en el tiempo. Muchas veces los organismos electorales consideran que
no tienen obligación de comunicar, y cuando comienzan a hacerlo ya es demasiado
tarde porque no gozan de la confianza de la sociedad, algo que requiere de
tiempo y trabajo constante. Además, incluso cuando estos organismos comunican,
su actuación deja mucho que desear. En ellos se junta la falta de profesionalidad
para estas tareas, relegadas a un segundo plano, y la falta de cultura de
comunicación pública. Aunque podemos señalar el caso de Brasil donde las
operadoras, por iniciativa del Tribunal Electoral, ofrecen acceso gratuito a
las webs oficiales.
En la respuesta
comunicativa tampoco podemos olvidar a los medios de comunicación. Los medios
siguen teniendo un papel importante en la vida política, y siguen siendo pieza
importante de los procesos electorales. Son ellos los que señalan la
legitimidad, operan de cámara de eco y convierten algo puntual en algo
sistémico. Por eso, los medios de comunicación necesitan recobrar el prestigio para
recuperar la confianza y su independencia. Establecer una serie de obligaciones
de transparencia en su gobernanza y en su funcionamiento y no tanto en los
contenidos servirá para recuperar la confianza y la independencia,
estrechamente relacionadas. En esa línea podemos destacar la Ley de Libertad de los Medios de
Comunicación, aprobada en la UE, por la que todos los
medios informativos -independientemente de su tamaño- tendrán que publicar en
una base de datos nacional la identidad de sus propietarios, también si son
parcial o totalmente de titularidad pública. De la misma forma, los medios de
comunicación tendrán que informar sobre los fondos públicos recibidos en
concepto de publicidad o en forma de subvenciones, incluidos los procedentes de
terceros países. Estos fondos deberán asignarse mediante criterios públicos,
proporcionados y no discriminatorios. Además, se establece una serie de medidas
para procurar la independencia editorial de los medios de comunicación
públicos, por medio del establecimiento de criterios para su financiación la
cual deberá ser transparente y basada en procedimientos objetivos, además de sostenible
y previsible. Por último, como forma de protección de los medios se introduce
un mecanismo para evitar que las grandes plataformas restrinjan o eliminen
arbitrariamente contenidos de los medios por incumplimiento de sus condiciones.
Este mecanismo las obliga a distinguir los medios independientes de las fuentes
no independientes y a notificar su intención de eliminar o restringir su
contenido, abriendo un plazo de veinticuatro horas para que el medio pueda
responder, y llevar a cabo su actuación, solo después de haber recibido una
respuesta (o en ausencia de ella).
b)
Alianzas
Las alianzas con la
sociedad civil y los actores involucrados son otra vía de respuesta estructural
poco explorada. Estas alianzas son una forma de aprovechar la confianza que
suelen despertar las organizaciones de la sociedad civil y ponerlas al servicio
de la integridad electoral. Estas pueden desempeñar funciones de verificación,
de creación de mensajes y de su difusión para alcanzar públicos alejados de los
organismos electorales y haciéndolo, además, con un plus de confianza que a los
organismos electorales les resultaría imposible conseguir. Experiencias como la
celebración del Pacto Ético Digital realizado en países como Argentina, Uruguay
o Panamá, liderados por los organismos electorales, son un primer paso en esta
dirección. En la misma línea puede servir de modelo el Código
de buenas prácticas frente a la desinformación aprobado en 2022, que
sustituye y refuerza el de 2018 y ha sido suscrito por 34 entidades,
incluyendo plataformas en línea, agencias de publicidad, verificadores de
datos, academia y organizaciones de la sociedad civil. Entre sus 44 compromisos
y 128 medidas, destacan la desmonetización de la difusión de desinformación; la
garantía de la transparencia de la publicidad política; la reducción del
comportamiento inauténtico utilizado para difundir desinformación; la
cooperación con los verificadores de datos; y el acceso de los investigadores a
los datos. Dentro del grupo de trabajo creado para dar seguimiento a su puesta
en marcha destaca la creación de un Centro de Transparencia que recoge los
informes de las plataformas que forman parte de este.
c)
Ciberseguridad
También desde el punto de
vista estructural, hay que adoptar medidas de seguridad, para proteger procesos
y personas, en línea con la propuesta del Consejo de Europa de convertir las
elecciones en una prioridad de seguridad nacional y en una infraestructura
crítica, dotándola de especial protección.
La Recomendación sobre
procesos electorales inclusivos y resilientes en la Unión y con vistas a
reforzar el carácter europeo y el desarrollo eficiente de las elecciones al
Parlamento Europeo aborda la protección y la ciberseguridad de
las infraestructuras relacionadas con las elecciones, que se deben clasificar
como críticas, así como de bases de datos y procesos de estas, en línea con la
propuesta de Ley de Ciberresiliencia.
5.2.1 Marco
jurídico
La adecuación del marco
normativo en la aplicación de estándares internacionales como los de la
Comisión de Venecia también es necesaria, sabiendo que la respuesta no puede
terminar vaciando de contenido la campaña electoral ni sus objetivos de
reforzar la democracia. La justicia electoral no puede desarrollar esta labor
sin un marco normativo que le permita dar respuesta a actuaciones que atenten
contra la libertad de los votantes, así como dotarse de la capacidad de responder
en tiempo y forma, en consonancia con la importancia de su actuación.
En este ámbito jurídico hemos
pasado de una respuesta jurídica basada en la autorregulación y con la aplicación
flexible de normas ya existentes, con un fuerte componente jurisprudencial y
una dependencia importante de los operadores tecnológicos en caso de conflicto
(Rubio, 2018), al impulso normativo de una serie de normas que buscan limitar
de manera proactiva determinadas prácticas y herramientas en el ámbito de la desinformación, la
segmentación y la publicidad política.
Existe una obligación positiva de
asegurar las condiciones en las que el electorado puede formar y expresar
libremente su opinión y elegir a sus representantes. La libertad de expresión
(especialmente en el debate político) y las elecciones libres son derechos que
se necesitan mutuamente. Así, resulta imprescindible adecuar el marco jurídico
para garantizar un entorno electoral equitativo, lo que en el escenario digital
implica una serie de dificultades añadidas para proteger la libertad y el
secreto del voto, mantener a salvo la libertad de expresión y no perjudicar el
principio de equidad.
Además,
garantizar las condiciones para un entorno de campaña equitativo supone
garantizar una clara separación entre el Estado y el partido. Presume también
la igualdad de acceso a los medios de comunicación, públicos y privados, para
todos los partidos y contendientes en la campaña electoral, procurando una
cobertura precisa y objetiva de los acontecimientos relacionados con las
elecciones y que promueva una variedad de puntos de vista y opiniones, además
de informar sobre las noticias.
La intervención de terceros en el proceso,
habitualmente actores de terceros Estados o de sus hubs,
también cambia la lógica jurídica tradicional, que limitaba el alcance de la
regulación electoral a candidatos, partidos, gobiernos y medios de
comunicación. Vincular la responsabilidad de las publicaciones a la compra de
publicidad con la exigenia del registro de las
empresas que hagan publicidad electoral es una de las propuestas que podría
ayudar a dar respuesta a los frecuentes abusos de la intervención de terceros
en las campañas.
Aquí también los
organismos electorales, conocedores de los intentos de influencia indebida
durante los procesos, pueden asumir un papel proactivo con propuestas
normativas como las elevadas por el Tribunal Supremo de Elecciones de Costa
Rica o el Tribunal Electoral de Panamá, de cara al próximo proceso electoral.
5.2.2
Educación
Por último, dentro de las
soluciones estructurales, las respuestas pasan también por cambios en la
conducta personal de los afectados. El componente educativo frente a la
desinformación no se puede desdeñar. Para mantener la libertad de conformarse
un juicio y tomar una decisión es necesario reforzar la alfabetización digital.
No se trata tanto de incidir sobre el conocimiento de los contenidos, sino de
dar instrumentos adecuados para que, desde la responsabilidad individual y con
libertad, podamos afrontar esos problemas complejos. Sería este tipo de
educación, centrada en mejorar la capacidad de atención, la participación, la
colaboración, la lógica de las redes y el espíritu crítico, la que nos
permitiría detectar la desinformación (crap
detention) y sus lógicas (Rheingold, 2010). En esta labor se han
concentrado también organismos electorales como el de Panamá, Costa Rica,
México, Perú o Ecuador.
5.2.3
El papel de las plataformas
Dado el peso que la tecnología ha adquirido en
las campañas electorales, sus actores, las plataformas tecnológicas, toman un
papel protagónico en aquellas. Como consecuencia de la presión externa,
estas han ido asumiendo conciencia de su responsabilidad, y han adoptado, en
consecuencia, algunas medidas. Sirva como resumen de este proceso las 9 recomendaciones
que el Overseigh
Board (2024) de Meta ha realizado a la
plataforma en materia electoral:
- Establecer políticas en esta área, pero sobre
todo ejecutarlas, invirtiendo los recursos necesarios para hacerlo de manera
eficaz.
- Establecer estándares internacionales, sin
discriminaciones en función del mercado, lo que paradójicamente puede penalizar
a países donde los derechos humanos peligran.
- Incluir en sus políticas de moderación en
periodo electoral la violencia, priorizando su moderación rápida y las
sanciones.
- Protegerse frente al uso de la desinformación
por parte del gobierno o su utilización como excusa para suprimir el discurso
crítico, especialmente en el entorno electoral.
- Reforzar la motivación de las decisiones que
suprimen la libertad de expresión (para que resulten necesarias y proporcionadas).
- Considerar el papel de la IA en estos
procesos y la necesidad de establecer estándares clares para el contenido
generado por IAG y fakes (deep
o cheap).
- Proteger a periodistas, sociedad civil y la
oposición del abuso online.
- Transparentar las medidas adoptadas y los
errores cometidos.
- Priorizar la respuesta a las campañas
coordinadas.
En esta línea de actuar sobre las
plataformas, la Unión Europea ha aprobado el Reglamento sobre transparencia y segmentación de la
publicidad política, el cual aumenta las
obligaciones de transparencia de la publicidad política, que debe identificarse
como tal y ofrecer información básica sobre el patrocinador, la elección con la
que están vinculados, el importe invertido y las técnicas de segmentación
utilizadas. Además, restringe para este tipo de publicidad política la
microsegmentación que, a partir de ahora, solo podrá realizarse con datos
recopilados directamente del sujeto, con su consentimiento, explícito y
distinto, para este uso. Además, prohíbe en todo caso la utilización para esta
microsegmentación de datos personales considerados de categoría especial, como
los que afectan a la raza, la etnia o las opiniones políticas. Por último, y
para evitar injerencias externas, prohíbe la contratación de publicidad por
parte de organizaciones de terceros países, durante los tres meses previos a la
votación.
La Ley de Servicios
Digitales (DSA) también tiene un efecto directo en el papel que las
plataformas desempeñan en las elecciones, al regular la moderación del
contenido en línea y armonizar las regulaciones nacionales relativas al
contenido ilegal, la publicidad y la desinformación. En concreto, se establecen
mecanismos que permitan a los usuarios reportar estos contenidos, se garantiza
la impugnación de las decisiones tomadas por los moderadores de las
plataformas, y se refuerza la transparencia de las plataformas, incluyendo, por
ejemplo, la de los algoritmos utilizados para recomendaciones. Para las
plataformas de muy gran tamaño, que alcanzan a más del 10% de la población de
la Unión Europea, se establece explícitamente la
obligación de mitigar los riesgos sistémicos relacionados con los procesos
electorales, lo que dio lugar a una serie de recomendaciones específicas para
las elecciones al Parlamento Europeo del año 2024, que incluían reforzar sus
procesos internos en función del riesgo potencial, mejorando su capacidad de
mitigación ante estos comportamientos; aplicar medidas de reducción del riesgo;
promover la información oficial sobre los procesos electorales, iniciativas de
alfabetización mediática y adaptar sus sistemas de recomendación para capacitar
a los usuarios y reducir la monetización y la viralidad
de los contenidos que amenazan la integridad de los procesos electorales.
Además, la publicidad política debe etiquetarse claramente como tal, en línea
con el nuevo Reglamento sobre la
transparencia y la segmentación de la publicidad política, y señalar
expresamente, cuando se produzca, el uso de IA generativa. Se insta, además, a
la cooperación con las autoridades nacionales y de la UE, expertos
independientes y organizaciones de la sociedad civil, especialmente con el
Grupo de Trabajo del Observatorio Europeo de
los Medios Digitales (EDMO). Por último, se recomienda adoptar un
mecanismo de respuesta a incidentes que puedan tener un efecto significativo en
el resultado o la participación electoral y la evaluación de la eficacia de las
medidas mediante revisiones poselectorales, fomentando el control por terceros
para garantizar que las medidas aplicadas sean eficaces y respeten los derechos
fundamentales.
5.2.4
El papel de los organismos
electorales
Frente a esta tendencia en que las
plataformas sociales y los proveedores de servicios tecnológicos, que
concentran en esta materia verdaderos poderes legislativo, ejecutivo y
judicial, es necesario recuperar la división de poderes. Sus respuestas crean de
facto verdaderos marcos jurídicos por la vía de los hechos, ante lo que es necesario
establecer un marco jurídico firme para hacer frente con seguridad jurídica a
este reto. Es necesario instaurar regulaciones, de carácter transnacional o, al
menos, coherentes con los estándares internacionales, coordinadas y que
homogenicen el trato de las plataformas sociales. Mecanismos útiles para que la
coerción estatal sea efectiva y llegue a las plataformas. Para lograrlo es
necesario acabar con esa distinción puramente artificial en la situación actual
entre autorregulación y regulación. Hoy en día no caben más mecanismos para hacer
frente a estos problemas que los que algunos están empezando a llamar la corregulación (Gómez, 2016). Es
necesaria una acción conjunta y determinada en la que la última palabra la
deben tener siempre los actores públicos, especialmente de naturaleza
jurisdiccional, haciendo a las plataformas partícipes de la ejecución de esa
regulación y teniéndolas en cuenta incluso en el proceso regulatorio.
Estos avances normativos resultarán
insuficientes sin una auténtica capacidad de exigir el cumplimiento del marco
jurídico. Actualmente, no hay alternativa tecnológica. Hoy para su eficacia los
organismos del Estado no cuentan con la capacidad de ejecución suficiente de
manera autónoma, sino que necesitan también la colaboración de las plataformas.
En esa dirección apuntan los trabajos de la nueva directiva europea, el papel
vicario de las redes sociales, que son las que ejecutarían en nombre del Estado.
Es una cooperación multidisciplinar, donde tienen que entrar las plataformas,
las autoridades electorales, la academia, etcétera. Cada uno de estos actores
es clave a la hora de detectar las amenazas y tratar de dar una respuesta, y si
no se cuenta con todos ellos resulta complicado una respuesta eficaz.
Además, son necesarias medidas que garanticen
que esas decisiones adoptadas por las plataformas respeten los estándares
democráticos. Garantizar que sus decisiones se realicen a través de un
procedimiento claro, transparente y sin discriminación en el que exista la
posibilidad de recurrir la decisión, e incluso la obligación de darle respuesta
motivada, y que sus decisiones deberían ser siempre susceptibles de ser
sometidas al control de una autoridad electoral. Aquí es donde el papel de los
organismos electorales resulta indispensable. Es necesario dotar a las
autoridades de competencias y la capacidad que les permitan hacer frente a
estas nuevas amenazas, pudiendo tomar decisiones y afrontar estas disfunciones
informativas de manera eficaz, en tiempo y forma. En ese sentido, hay que
establecer autoridades y roles claros, estándares bien definidos, mecanismos de
comunicación confiables, canales de denuncia claros y tiempos de respuesta
adecuados a los tiempos de la amenaza.
Los organismos
electorales son los únicos con legitimidad para llevar a cabo estas acciones
que pueden poner en riesgo derechos fundamentales. De ahí la necesidad de que
las instituciones puedan dotarse de capacidad de respuesta ante estas amenazas,
lo que pasa, sobre todo en lo inmediato, por generar marcos normativos
adecuados. En este punto conviene alertar como hemos
hecho, en la misma línea de la tipicidad y reserva de ley, sobre el hecho de
que algunos tribunales han convalidado auténticas piezas de legislación
desarrolladas a través de la potestad reglamentaria de las autoridades
administrativas. Aunque la interpretación de los tribunales no considera estas
decisiones como cambios normativos, sino como la modulación de principios ya
existentes, la materialización a través del desarrollo de principios
constitucionales y la proyección de estándares internacionales generales. Pero
para poder llevar a cabo esta labor en un marco de seguridad jurídica, los
organismos electorales deben contar con un marco jurídico, competencias y
recursos que les permitan responder a estas nuevas amenazas. En ese sentido,
hay que establecer autoridades, roles y estándares claros, canales de
comunicación y de denuncia confiables y tiempos de respuesta adecuados.
En resumen, los órganos
electorales vienen ya desarrollando acciones estructurales y liderando las
respuestas ante las amenazas informativas. En las elecciones celebradas en los
últimos años Perú, Colombia, Costa Rica, Panamá, México, Ecuador, Uruguay,
Argentina… o bien llevaron a cabo acciones de prevención, monitorización e
información, o una política de convenios con las plataformas (más o menos
satisfactorias). Así se puede decir que todos los organismos electorales,
incluso aquellos que no han enfrentado casos directamente relacionados con este
tipo de disfunciones informativas han desarrollado políticas para tratar de
hacerles frente.
5.2.5
Una respuesta integral y
estratégica
A la luz de todo lo
anterior no queda duda de que la respuesta debe ser una integral, desarrollada de
manera transversal para hacer frente a una amenaza híbrida, involucrando desde
un punto de vista interno la parte administrativa y jurisdiccional, con la
tecnología y la comunicación.
La eficacia de la
respuesta se construirá sobre la experiencia comparada y sobre la continuidad que
permite que, a pesar de los cambios periódicos en las autoridades electorales, la
lucha contra las manipulaciones informativas forme parte de la labor ordinaria
de los organismos electorales, conscientes de que las percepciones se generan
con el tiempo y la repetición, y aunque se refuercen durante el periodo de
campaña electoral, se van sembrando con antelación, lo que requiere una acción
contraria permanente.
Además, la previsión
resulta clave, anticipando los escenarios de crisis y las posibles respuestas,
y desarrollando respuestas proactivas, y no solo reactivas, que permitan ir
construyendo confianza. Acciones como la preparación de los equipos internos
del organismo, así como la construcción y fortalecimiento de alianzas con la
sociedad, los medios y especialmente con las plataformas, que no pueden
improvisarse tras la convocatoria electoral.
Esta anticipación
permite, además, trabajar estratégicamente sobre la base de un plan estratégico
que establezca objetivos realistas, claros y dote al organismo de los recursos
necesarios para lograrlos, sin tratar de ir más allá de sus capacidades y sus
competencias, a través de mecanismos de seguimiento y retroalimentación que deben
servir tanto para definir la estrategia como para ir ajustándola a la evolución
de los acontecimientos.
Actuaciones como la
del TSE de Brasil en las elecciones presidenciales de 2022 son un buen ejemplo
de esta respuesta integral (Rubio y Andrade, 2023). También, más recientemente,
puede servir de modelo la Recomendación sobre
procesos electorales inclusivos y resilientes en la UE y con vistas a reforzar el
carácter europeo y el desarrollo eficiente de las elecciones para el Parlamento
Europeo, que nos ofrece un
buen ejemplo de la integralidad y transversalidad de este tipo de respuestas al
proponer medidas para minimizar los riesgos de injerencia de terceros países a
través del control de la financiación de partidos políticos y sus campañas y reforzar
las obligaciones de transparencia de los partidos y candidaturas; la adopción
de códigos de conducta que faciliten la integridad electoral y las campañas
justas, fomentando un discurso político inclusivo y desterrando comportamientos
manipuladores como la generación, o difusión de falsedades (incluidos los deepfakes), o aquellos que incitan al odio, así como
el rechazo a la utilización de tácticas, técnicas y procedimientos inauténticos
para difundir o amplificar mensajes políticos; promoviendo fórmulas de control
independiente para el cumplimiento de los compromisos asumidos. Por último, se
anima a los Estados a proteger el entorno informativo y garantizar que los
votantes reciban información correcta, promoviendo proyectos de sensibilización
y alfabetización mediática para hacer frente a la manipulación de la información,
la injerencia y la desinformación relacionadas con las elecciones, así como el
fortalecimiento de respuestas rápidas tanto de prevención (prebunking)
como de refutación (debunking).
6.
En defensa de la legitimidad electoral
Hace muchos años (2000) Pedro de
Vega advertía que: “Como momento decisivo en la vida democrática de cualquier
país, las campañas electorales adquieren el valor de testimonio en el que
aparecen reflejadas las grandezas y miserias de la democracia moderna” (p. 15).
En los últimos tiempos, hemos visto cómo se multiplican en todo el mundo las
denuncias sobre la debilidad del sistema electoral. Esta susceptibilidad tiene
una relación directa con la tecnología e incide en las distintas fases del
proceso.
El auge de las tecnologías de la
información ha impactado notablemente en la forma de hacer política y,
específicamente, de realizar campañas electorales. Estas siempre han tratado de
aprovechar los últimos avances tecnológicos para lograr una posición competitiva
favorable.
Mientras que la transmisión del
mensaje antes era de exclusividad de los partidos políticos y los medios de
comunicación, ahora son los ciudadanos quienes tienen un protagonismo que se
une a un cambio en los espacios y tiempos comunicativos. Además, ahora podemos
hablar prácticamente de la individualización de la comunicación, producto del
uso de tecnologías que permiten un mejor conocimiento del electorado prácticamente
hasta la personalización de los mensajes. La tradicional publicidad ha sido
sustituida por nuevas formas de persuasión que combinan mecanismos de
publicidad, propaganda y, en ocasiones, de manipulación. A esto habría que
sumar el papel que están desempeñando las plataformas digitales y que sin duda
continuarán realizando en este ámbito.
Todo esto provoca una
transformación del concepto mismo de campaña electoral, que influye en el modo
de decidir y ejercer el voto. La tecnología aumenta las posibilidades de
alterar el debate de ideas que debería constituir la base de una campaña a lo
que se une la posibilidad de que terceros, empresas o Estados orquesten
campañas híbridas, mezcla de ciberataques y desinformación, que amenazan la
legitimidad de los gobiernos democráticos.
Los últimos procesos electorales
han puesto de manifiesto la importancia del debate para la democracia y la
necesidad de ofrecer respuestas y esto es una gran oportunidad para los
organismos electorales y también para la sociedad civil y, en consecuencia,
para la colaboración entre ambas.
Algunos tribunales lo han entendido. La
lógica de la información se basa en la CONFIANZA. La sociedad civil tiene esa
CONFIANZA entre su comunidad. De ahí la importancia de que los organismos
electorales construyan sus redes de confianza con la sociedad civil, las redes
de verificadores, los divulgadores y los educadores. El reto es enorme, pero
les aseguro que, por lo que está en juego, merece la pena.
Referencias
BBC News Mundo (2023). ChatGPT.
“Mi peor temor es que causemos un daño significativo al mundo”: el testimonio
de Sam Altman creador del chatbot de AI, ante el
Congreso de EE. UU. https://www.bbc.com/mundo/noticias-internacional-65617550
Campos Domínguez, E. y García Orosa, B. (2018). Comunicación algorítmica en los partidos
políticos: automatización de producción y circulación de mensajes. El profesional
de la información, 27(4), 469-777.
Comisión
Europea (2020). Plan de acción para la democracia europea.
https://ec.europa.eu/commission/presscorner/detail/es/ip_20_2250
Comisión
Europea (2022). Código de buenas prácticas frente a la desinformación. https://digital-strategy.ec.europa.eu/en/library/2022-strengthened-code-practice-disinformation
Comisión Europea (2023) Recomendación
sobre procesos electorales inclusivos y resilientes. https://commission.europa.eu/document/c797a16d-f2f6-4540-baf8-a05e8bcb33df_en?prefLang=es
De Vega, P. (1985). Significado constitucional
de la representación política. Revista de Estudios Políticos, (44),
25-45.
De Vega, P. (1998). Mundialización y derecho constitucional.
La crisis del principio democrático en el constitucionalismo actual. Revista
de Estudios Políticos, (100), 13-56.
De Vega, P. (8 de marzo de 2000). Campañas
electorales y democracia. ABC.
Fung,
A. y Lessing, L. (2023). Cómo la AI podría apoderarse de las elecciones y socavar la
democracia: una campaña política impulsada por AI podría ser todo para todos. https://www.scientificamerican.com/article/how-ai-could-take-over-elections-and-undermine-democracy/
Gómez Iglesias, V.
(2016). De la autorregulación a la corregulación.
Estudio de su aplicación en los principales países europeos. El caso Español.
[Tesis de doctorado, Universidad de Navarra, España].
Habermas, J, (1981). Historia y crítica de la
opinión pública. La transformación estructural de la vida pública. G. Gili
Edición.
Ley 1060 de 2006. Por la cual se modifican las
normas que regulan la impugnación de la paternidad y la maternidad. 26 de julio
de 2006. D.O. N.o 46341.
Ley 2065 de 2022 (Ley
de la Unión Europea). Ley de Servicios Digitales (DSA). 16 de octubre de 2022.
Ley 1083 de 2024 (Ley
de la Unión Europea). Ley de Libertad de los Medios de Comunicación. 11 de
abril de 2024.
ley 1689 de 2024 (Ley de la Unión
Europea). Ley de Ciberresiliencia. 13 de junio de 2024.
Oversight Board (2024). Contente moderation in a
historic election year: key lessons for industry. Oversight Board.
Rheingold, H. (2012). Atención y otras alfabetizaciones sobre redes sociales del
siglo XXI. Revista EDUCASE, 45(5), 14-24.
Rubio Núñez, R. (2004).
Los grupos de presión. Centro de Estudios Políticos y Constitucionales.
Rubio Núñez, R. (2018).
La amenaza tecnológica en los procesos electorales. Una respuesta jurídica. Revista
de Privacidad y Derecho Digital, 3(11), 109-146.
Rubio Núñez, R. y de
Andrade Monteiro, V. (2023). Preserving trust in democracy: The Brazilian Superior
Electoral Court's quest to tackle disinformation in elections, South African. Journal
of International Affairs, 30(3), 497-520. DOI: 10.1080/10220461.2023.2274860
Rubio Núñez, R., Alvim, F.F. y de Andrade Monteiro, V. (2024). Inteligencia artificial y campañas electorales
algorítmicas. Disfunciones informativas y amenazas sistémicas de la nueva
comunicación política. Centro de Estudios Políticos y
Constitucionales.
Sánchez Muñoz, O.
(2020). La regulación de las campañas en la era digital: desinformación y
microsegmentación en las redes sociales con fines electorales. Centro de
Estudios Políticos y Constitucionales.
Unión Europea (2024).
Reglamento 900 sobre transparencia y segmentación en la publicidad política. 13
de marzo de 2024.
* Artículo base de la conferencia pronunciada en el
Tribunal Supremo de Elecciones de Costa Rica con motivo del Día de la
Democracia Costarricense el 7 de noviembre de 2024.
** Español, profesor de derecho, correo
Rafa.rubio@der.ucm.es. Doctor en Derecho
Constitucional (premio extraordinario), catedrático y director del Grupo de
Investigación sobre Tecnología y Democracia en la Universidad Complutense,
cuenta con más de 25 años de experiencia docente en universidades de todo el
mundo.
[1] Video, imagen
o audio generado que imita la apariencia y el sonido de una persona.
[2] Filtro de
burbuja con algoritmos que rastrean donde se va a hacer clic cada vez que se navega
en internet.
[3] Modelo de
lenguaje creado con el propósito de mantener una conversación con el usuario.
[4] El machine
learning, o aprendizaje automático, campo de la inteligencia artificial
(IA) que desarrolla algoritmos y modelos estadísticos para que los sistemas de
computación puedan realizar tareas sin instrucciones explícitas
[5] Entre
los requisitos se encuentran su identificación como campaña política, la
autenticación de aquellos que quieran contratar campañas de publicidad de esta
naturaleza, la prohibición de comprar publicidad desde lugares externos al
lugar en el que se celebra la elección y la creación de una librería pública
(que se mantendrá durante 7 años) donde se pueden consultar todas las campañas
de esta naturaleza, y que ofrece información básica, como la inversión, el
público objetivo, o las fechas en las que se ha distribuido la campaña sobre
cada una de las piezas publicitarias (Facebook, Instagram y Google).
[6] De ahí que se
plantee con fuerza la idea de delegar la responsabilidad y la competencia para
llevar a cabo esta labor en las plataformas sociales, pero estableciendo
procedimientos y mecanismos de control. En la actualidad el más ambicioso,
desde la perspectiva de la autorregulación, es el Oversight Board, mecanismo de supervisión de Facebook. Se trata de
un mecanismo de autorregulación que ni reemplaza ni busca reemplazar la acción
estatal. Una entidad jurídica independiente, basada en una carta fundacional
genérica que, en el ejercicio de su autonomía, ha ido creando sus propias
reglas internas de funcionamiento de toma de decisiones y que cuenta con
presupuesto fijo y autónomo. Su misión principal es la revisión de la acción de
la plataforma con base en el derecho internacional de los derechos humanos,
pero lo hace sobre casos emblemáticos y Facebook está obligado a cumplir
resoluciones. En sus decisiones se cuestionan no solo la decisión, sino incluso
las reglas sobre las que se adoptó la decisión. Para realizar su trabajo tiene
acceso privilegiado a la plataforma, a la que puede elevar sus demandas de
información que no siempre reciben respuesta. Además, puede hacer
recomendaciones que no son obligatorias para la plataforma, como la propuesta
de una comisión para evaluar si la moderación de contenidos tiene un sesgo. Así
tanto en la desinformación como en la publicidad la única normativa aplicable
resulta ser la propia de las plataformas sociales y la única autoridad la de
estos mismos organismos que adoptaron sin aviso ni procedimiento alguno
decisiones de especial transcendencia que tuvieron consecuencias directas en el
derecho de los ciudadanos a recibir información durante el proceso electoral.
[7] Recurso que proporciona información sobre el
Reglamento de Servicios Digitales (DSA), ley que se aplica a todos los
servicios que se prestan por internet en la Unión Europea. Su objetivo es
garantizar la protección del consumidor y la debida diligencia.