Este sitio web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuaria/o posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestro web o ayudar a nuestro equipo a comprender qué secciones de este sitio web encuentras más interesantes y útiles.

Transparencia del algoritmo: ¿qué hay detrás de los contenidos que se viralizan?
La era digital ha cambiado tanto el hábito como los formatos en que las personas consumen información. Estudios recientes muestran que Internet es el medio por el que habitualmente se informan las personas, consumiendo una media de cuatro horas al día. Dentro de este medio, las redes sociales como Facebook, Instagram y TikTok son los más visitados y se han convertido en el principal canal de información de los ciudadanos mayores de 18 años.
Además, plataformas como YouTube tienen una importante penetración en las audiencias digitales: en 2023 acaparó más del 72% de los visitantes únicos, mientras que las webs de los medios tradicionales, como El País, solo alcanzaron al 18%, o un 8% en el caso de La Vanguardia y RTVE.es, según datos de un informe de la Asociación para la Investigación de Medios de Comunicación (AIMC).
En esta sociedad de la información caracterizada por estar hiperconectada, con una exposición constante a todo tipo de contenido y donde cualquier hecho es susceptible de hacerse viral en tiempo récord, los principales riesgos y amenazas son la infoxicación (sobrecarga de información difícil de procesar) y la desinformación, fenómenos utilizados cada más para conseguir beneficios de toda índole, ya sean económicos, sociales o políticos.
Por este motivo, la Unión Europea ha aprobado nuevas normas para regular la actividad de los nuevos ecosistemas informativos, entre los que destaca el Reglamento (EU) 2022/2065 de servicios digitales, conocido como DSA, y el Reglamento (EU) 2024/1083 sobre la libertad de los medios de comunicación (ENFA). Del mismo modo, el Gobierno español aprobó recientemente el anteproyecto de ley sobre servicios digitales y medios de comunicación para adaptar la regulación española a la nueva normativa europea.
Esta nueva ley española introducirá cambios importantes como la designación como coordinador de servicios digitales a la Comisión Nacional de los Mercados y la Competencia (CNMC), y dotará de nuevas responsabilidades a la Agencia Española de Protección de Datos.
Sin embargo, la medida más novedosa es la creación de un Registro de medios de comunicación, donde deberán inscribirse los medios que presten servicios en el ámbito nacional para dar publicidad de su estructura orgánica, así como de sus ingresos procedentes de la publicidad institucional, y será de libre acceso para que toda persona pueda consultar esta información.
Estas nuevas medidas forman parte del Plan de Acción por la Democracia que el Gobierno anunció en otoño de 2024 para reforzar el derecho a la información en España. Según afirmó el Ministro de Cultura durante la presentación del Plan, uno de los objetivos de estas medidas es garantizar el derecho a la información plural, veraz y de calidad, y para ello quieren establecer los criterios que definen a un medio de comunicación frente a otro tipo de plataformas, para evitar que el dinero público de la publicidad institucional financie “seudomedios” que promuevan la intoxicación mediática o la desinformación.
NOTICIAS RELACIONADAS
– Opinión: Qué es la desinformación
– Desinformación y clima extremo, los riesgos más amenazantes
– Desinformación y elecciones: más transparencia para votar seguros
Para conocer mejor las claves de esta realidad y los riesgos a los que se exponen los usuarios de los entornos online, Revista Haz habla con la Cristina Pauner, catedrática de Derecho Constitucional en la Universitat Jaume I, quien ha investigado la transparencia del uso de los algoritmos por los medios de comunicación y las plataformas digitales.
Transparentando los algoritmos
Según un estudio de Pauner, la transparencia algorítmica ha cobrado una especial relevancia dentro del contexto de la comunicación porque se ha extendido la utilización de este tipo de herramientas automatizadas tanto por los medios como por las plataformas digitales.
Estas herramientas son cada vez más frecuentes en las redacciones para simplificar y automatizar tareas repetitivas o menos creativas como son la traducción simultánea, la corrección de textos, síntesis de documentos, edición y producción de imágenes, o facilitar las interacciones con lectores y usuarios.
En relación con la información, la experta consultada explica que también se emplean como herramientas para filtrar y detectar noticias falsas: “Es imposible construir un algoritmo de la verdad, pero puede ayudar, por ejemplo, a valorar la calidad de las páginas web de las que surge la noticia y detectar si proceden de bots (programas de repetición automatizada), o ayudar a identificar patrones ocultos”.
Sin embargo, la utilización de los algoritmos es muy heterogénea y a veces se usan de manera indebida, como divulgar masivamente noticias tipo clickbait (con titulares sensacionalistas o engañosos) dirigidas a un público segmentado. En este sentido, se hace necesaria la transparencia algorítmica, que se define como la divulgación de información que permite supervisar la actividad de dicho algoritmo. Pero este tipo de información no siempre está disponible.
Para Pauner resulta evidente que se ha avanzado en transparencia algorítmica por parte de algunos medios a raíz de la imposición normativa, pero considera que todavía “es insuficiente”. En primer lugar, porque “la regulación (principalmente europea) no abarca todos los sistemas algorítmicos, sino únicamente los de alto riesgo, dejando fuera muchos otros que afectan a derechos fundamentales como la libertad de información”.
“La regulación no abarca todos los sistemas algorítmicos, sino únicamente los de alto riesgo, dejando fuera muchos otros que afectan a derechos fundamentales como la libertad de información”, Cristina Pauner.
Por otra parte, la catedrática de la Jaume I señala que la información publicada principalmente por las redes sociales sobre el funcionamiento de sus algoritmos, básicamente, hace referencia a la clasificación personalizada, mientras descuida otro tipo de información muy relevante como es la fuente de la noticia o los criterios de exclusión de determinada información.
Asimismo, Pauner afirma que, aunque no se refiera concretamente al derecho a la información, “la transparencia en el uso de algoritmos por medios y redes debe incluir también el uso que se hace de nuestros datos personales, una información que intencionadamente se oculta en las complejas condiciones de uso”.
Esta opacidad algorítmica impide multitud de acciones como la fiscalización y el control de los procesos de toma de decisión de los algoritmos, impugnar eficazmente los resultados producidos por ellos y exigir responsabilidad por cualquier resultado irregular o ilegal que provoquen. “Estos obstáculos son especialmente graves cuando la falta de transparencia respecto al funcionamiento del algoritmo afecta a derechos fundamentales como es el caso del derecho a recibir información veraz”, asegura la experta.
Las burbujas de información
Sobre los riesgos que conlleva la opacidad algorítmica, Pauner destaca el poder para manipular la información que llegan a los usuarios y la filtración de contenidos en función de la audiencia para que solo consuman aquellas noticias acordes a sus gustos y preferencias, creando de esta forma el famoso “filtro burbuja”. Este fenómeno impide al usuario acceder a diferentes tipos de informaciones, sobre todo si son distintas a su modo de pensar, lo que puede llevar a una polarización de las ideas al hacerse una composición sesgada de la realidad.
“Los algoritmos, bajo sistemas de IA, pueden elaborar información de muy baja calidad, nutriéndose de las noticias más consumidas (sin que influya para nada su veracidad) y aumentar con ello la desinformación”, afirma la catedrática de Derecho constitucional.
En otros casos, la manipulación puede ser sobre contenidos como imágenes, vídeos y sonido, para crear una apariencia de veracidad que no es fácil de detectar por el usuario y, además, permite trastocar cualquier información para conseguir un fin muy distinto al ejercicio de la libertad de información; más allá de fines económicos y políticos, a veces se busca el descrédito contra personas concretas o colectivos, o la desestabilización de las sociedades.
“Los algoritmos, bajo sistemas de IA, pueden elaborar información de muy baja calidad, nutriéndose de las noticias más consumidas (sin que influya para nada su veracidad) y aumentar con ello la desinformación”, Cristina
Con carácter general, Pauner señala que los medios han tenido que adaptarse al modo de funcionamiento de los algoritmos de las redes sociales y de los buscadores digitales como Google, el cual prioriza las noticias más atractivas o las más recientes. “Dos criterios que no benefician la información de calidad, porque pueden llevar a que se construyan las noticias para atraer visitas sin que se profundice en ellas, o no se verifiquen suficientemente”.
Cuidado con la hiperregulación
La experta consultada asegura que existen casos conocidos en los que las plataformas desafían a los Estados cuando son demandadas al ejercer su derecho de defensa, y que, en el peor de los casos, se limitan a pagar la sanción que se les impone para continuar con sus actividades.
Entonces, la solución a estas malas praxis no se resuelve solo con más regulación, sino que en consideración de Pauner “lo primero y esencial” es que las plataformas digitales cumplan con la regulación actualmente vigente. Creo que debemos tener cuidado con no excedernos en este terreno e hiperregularlo y, en este sentido, no sería necesario exigir nuevas medidas”.
Con respecto a la propuesta del Gobierno español para regular los medios de comunicación, Pauner valora positivamente lo relativo a la transparencia sobre la financiación de la publicidad institucional y la estructura de propiedad de los medios, así como que se vigile la concentración mediática.
Sobre este último aspecto, la catedrática afirma que en el entorno digital la concentración ha sido un límite “inexplicablemente” sin controlar y las plataformas digitales han disfrutado de ventajas regulatorias desde el inicio de la revolución digital, ya que no han estado en igualdad de condiciones con respecto a los medios de comunicación tradicionales. Esta situación empieza a modificarse ahora con la nueva norma y se exigirá a las plataformas que sean más responsables de sus contenidos.
Según explica a Revista Haz, la regulación de los medios de comunicación tradicionales incluye la sujeción a licencias, límites a la concentración, obligaciones en materia de propiedad intelectual, responsabilidad por difusión de contenidos ilegales y restricciones a la publicidad, entre otros aspectos, mientras que la regulación de las plataformas ha estado caracterizada por la exención de responsabilidad a los proveedores y usuarios, así que considera “adecuada” la nueva previsión en la norma que se aprobará.