Este sitio web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuaria/o posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestro web o ayudar a nuestro equipo a comprender qué secciones de este sitio web encuentras más interesantes y útiles.

¿Puede la IA frenar la desinformación? Gist.ai y el auge del contenido con licencia
La Fundación Haz, editora de esta revista, junto a Ethosfera, impulsa el Observatorio de Medios e Información Responsable, una iniciativa que subraya la importancia de promover un ecosistema informativo más transparente, ético y sostenible.
En este escenario, resulta especialmente relevante analizar propuestas tecnológicas que apuestan por la trazabilidad y la atribución justa de los contenidos, como es el caso de Gist.ai, la plataforma desarrollada por ProRata.
¿Qué hace diferente a Gist.ai?
A diferencia de los grandes modelos de lenguaje, que se entrenan con datos de toda la web sin distinguir entre fuentes fiables y dudosas, Gist.ai basa sus respuestas en acuerdos con más de 500 publicaciones y editoriales, entre ellas The Atlantic, Financial Times, Fortune, The Guardian, Boston Globe, Vox Media y Universal Music Group. En España, ProRata —la propietaria de Gist.ai— ha firmado acuerdos con el Grupo Prisa y la Agencia Efe, lo que refuerza la presencia de medios de referencia en el ecosistema de la plataforma. Esto permite que cada respuesta esté respaldada por fuentes identificables y que los creadores reciban compensación por el uso de su trabajo.
“Hay una necesidad urgente de alinear los incentivos de las plataformas de IA y los editores en interés del periodismo de calidad, el lector y el respeto a la propiedad intelectual. El enfoque de ProRata puede ayudar a desarrollar un ecosistema de información más saludable y justo”, decía John Ridding, CEO de Financial Times Group, en la nota de lanzamiento de ProRata.
Ejemplos prácticos
Un periodista que cubre una noticia urgente sobre salud pública utiliza Gist.ai para verificar rápidamente datos clave, sabiendo que las respuestas provienen solo de medios reconocidos y con licencia. Así, evita difundir rumores y bulos y puede citar fuentes fiables en su artículo, contribuyendo además a que los medios y periodistas originales reciban reconocimiento y compensación por su trabajo.
NOTICIAS RELACIONADAS
– ¿Se puede pedir un comportamiento ético a la inteligencia artificial?
– La UE presenta un código de buenas prácticas para la inteligencia artificial
Una consultora de negocios que prepara un informe estratégico sobre tendencias económicas recurre a Gist.ai para obtener análisis actualizados de publicaciones especializadas y verificadas, como Financial Times, The Guardian o El País, asegurando que la información es precisa, actual y legalmente autorizada, lo que reduce el riesgo de errores en la toma de decisiones.
O un activista ambiental que piensa en una campaña sobre el cambio climático utiliza esta herramienta para acceder a los datos más recientes de medios especializados y con licencia, como National Geographic o The Guardian. Esto le permite basar su mensaje en informes científicos verificados y evitar la difusión de información errónea o exagerada, fortaleciendo la credibilidad y el impacto de su campaña.
¿Es la solución definitiva?
Gist.ai no es la única herramienta que busca mejorar la calidad de la información generada por IA, pero su modelo de licencias y atribución la distingue en un mercado donde la mayoría de los asistentes priorizan la cantidad y la rapidez sobre la veracidad.
Sin embargo, este enfoque también plantea retos: la dependencia de acuerdos comerciales puede limitar el acceso a ciertas fuentes, y existe el riesgo de sesgo si solo se incluyen los medios seleccionados.
Además, los modelos generalistas como GPT-4.1 siguen siendo más flexibles y pueden cubrir una gama más amplia de temas y estilos, aunque a costa de una menor trazabilidad y, en ocasiones, fiabilidad.
Jan Bayer, presidente de Axel Springer News Media USA, añade en la presentación que “es imperativo que los equipos innovadores que desarrollan tecnología de IA lo hagan en colaboración con las organizaciones periodísticas. Nos anima el compromiso de ProRata con la atribución y compensación justa para los editores y creadores de contenido”.
“Es imperativo que los equipos innovadores que desarrollan tecnología de IA lo hagan en colaboración con las organizaciones periodísticas. Nos anima el compromiso de ProRata con la atribución y compensación justa para los editores y creadores de contenido”. Jan Bayer, presidente de Axel Springer News Media USA.
Un debate abierto
La integración de contenido licenciado en la IA no solo ayuda a combatir la desinformación, sino que también plantea preguntas sobre el futuro del periodismo, la sostenibilidad de los medios y el equilibrio entre innovación y derechos de autor.
Mientras tanto, la apuesta de Gist.ai por la transparencia y la compensación justa está siendo observada de cerca por la industria y podría marcar el camino hacia un uso más responsable de la inteligencia artificial en la generación y distribución de información.
De este modo, apostar por modelos de inteligencia artificial que prioricen la transparencia, la atribución y la compensación justa a los creadores de contenido representa un avance ético y social frente al riesgo creciente de la desinformación. Sin embargo, es fundamental mantener el equilibrio entre innovación, pluralidad y acceso abierto, y seguir mejorando estas tecnologías para construir un ecosistema informativo más seguro, sostenible y digno de confianza en la era digital.