Como yo sé hacerlo y puedo hacerlo, te jodes. La posición cómplice de las instituciones ante el expolio de los derechos de autor
Noticia anterior
Noticia siguiente
Como yo sé hacerlo y puedo hacerlo, te jodes. La posición cómplice de las instituciones ante el expolio de los derechos de autor
25/9/2025
E
l Parlamento Europeo encargó un estudio técnico sobre inteligencia artificial generativa y derecho de autor. El autor principal es Axel Brando, investigador del Barcelona Supercomputing Center. Su trabajo ha puesto sobre la mesa, con claridad, lo que hasta ahora se intuía: los modelos generativos no emergen de la nada, dependen directamente de las obras de millones de autores, editores y periodistas que jamás fueron consultados ni remunerados. Pero antes incluso de llegar a ese diagnóstico institucional, la investigación académica independiente ya había empezado a levantar el velo.
Un ejemplo clave es el artículo científico: Did you train on my dataset? de Pratyush Maini, Hengrui Jia, Nicolas Papernot y Adam Dziedzic, publicado por instituciones como Carnegie Mellon, DatologyAI, Vector Institute, la Universidad de Toronto y el CISPA Helmholtz Center. Este estudio analiza si es posible determinar, a partir del comportamiento de un modelo de lenguaje, qué datos concretos formaron parte de su entrenamiento. La pregunta que guía la investigación es sencilla y trascendente: ¿puede un autor saber si su obra fue usada sin permiso para alimentar una IA? La respuesta, contra lo que dicen las tecnológicas, es que sí.
El método de Maini y su equipo consiste en diseñar ataques de inferencia que examinan cómo un modelo responde a determinados estímulos. Si el modelo fue entrenado con un texto, sus respuestas mostrarán huellas estadísticas detectables: pequeñas variaciones de probabilidad, sesgos de formulación, repeticiones de patrones. No se trata de copiar frases enteras, sino de algo más profundo: el modelo queda marcado por el material con el que se formó. Dicho de otra manera, el dataset deja marcas en el sistema, marcas que los investigadores saben leer. Esto rompe el argumento más repetido por las empresas de IA, que aseguran que los datos son irrelevantes porque los modelos solo extraen patrones generales y no guardan rastros individuales. El estudio demuestra que cada obra contribuye, de manera acumulativa, a modelar el comportamiento del sistema. Esa contribución es medible y, por tanto, exigible en términos de reconocimiento y compensación.
El segundo gran informe es el encargado por el propio Parlamento Europeo a Brando. Allí se aborda lo que se denomina “vacío de trazabilidad”: la imposibilidad técnica actual de determinar con precisión qué obra influyó en una salida concreta del modelo. No porque sea imposible en principio, sino porque las arquitecturas están diseñadas para diluir cualquier rastro. La IA funciona deformando un espacio matemático en miles de dimensiones —un “hiperplano generativo”— donde cada obra tira un poco de la superficie, y el resultado final es un punto elegido sobre esa malla. ¿Cómo probar que ese punto viene de un libro, un artículo o una canción específica? Hoy no hay herramientas, y las empresas se benefician de esa opacidad
Brando desmonta la coartada de la “creación autónoma” de los modelos. Habla de stochastic parroting, el loro estocástico: máquinas que repiten estadísticamente lo que ya existía, con un barniz de originalidad probabilística. Advierte que la novedad no puede entenderse como algo binario —nuevo o copiado— sino como un espectro en el que cada salida está ligada probabilísticamente a miles de influencias previas. Y eso tiene consecuencias: si no hay manera de rastrear la dependencia, se erosiona la posibilidad de remunerar justamente a los creadores, y los sistemas de licencias se vuelven papel mojado.
Pero lo más revelador es que la remuneración no solo es deseable, sino técnicamente posible. Se puede pagar por token: cada fragmento generado por un modelo puede vincularse a un sistema de licencias colectivas que redistribuya compensaciones según el uso estadístico. Si se puede contar cuántos millones de tokens procesa ChatGPT cada día, también se puede calcular cuánta parte de ese caudal corresponde a las obras con las que fue entrenado. No hay un problema técnico, hay una falta de voluntad política y empresarial. La UE acaba de lanzar en septiembre otra consulta para elaborar directrices y un código de buenas prácticas sobre sistemas de IA transparentes. Es consciente de lo que está pasando en esta carrera por la IA que arrasa con todo.
Mientras tanto, se gasta una cantidad ingente de dinero en hardware, en chips fabricados en Taiwán, en nubes alojadas en Estados Unidos, en energía que dispara los presupuestos europeos… y a los creadores se les dan excusas. A los ingenieros de NVIDIA se les paga, a los operadores de centros de datos también, pero a los escritores, periodistas, músicos o ilustradores se les niega incluso el reconocimiento de que su trabajo está en la base de esta maquinaria. Mucho presumir de organismos europeos que velan por la “IA ética”, mucho documento institucional lleno de palabrería, y sin embargo campo abierto al robo.
La excepción, como suele suceder, llega de los países nórdicos. Noruega ha decidido que no participar de este saqueo disfrazado de innovación. El Ministerio de Cultura noruego anunció el 17 de septiembre de 2025 que destinará 45 millones de coronas al pago de derechos de autor por el uso de la prensa nacional en el entrenamiento de un modelo de inteligencia artificial. No es solo un gesto económico, es una declaración política: respetar los derechos de propiedad intelectual, adaptarse al idioma y a la cultura, y construir una alternativa ética y sostenible en el sector editorial. Kopinor, la entidad homóloga de CEDRO en Noruega, será la encargada de administrar este acuerdo. Su directora general, Hege Munch Gundersena, lo resumió con claridad: «es una gran noticia para los titulares de derechos noruegos y demuestra que la concesión de licencias es el camino a seguir para garantizar el uso legal de contenido protegido en el entrenamiento de modelos de IA».
Desde CEDRO, Jorge Corrales celebraba esta iniciativa subrayando que no se trata únicamente de dinero, sino de calidad y democracia: «estos sistemas no solo reproducen contenidos, sino que inciden directamente en el comportamiento del conjunto de la sociedad. Por ello, garantizar el uso de fuentes fiables y autorizadas no solo protege los derechos de los creadores, sino que también contribuye a construir una IA más justa, transparente y alineada con los valores democráticos».
Y mientras Noruega da este paso, nuestros políticos siguen mirando hacia otro lado cómplices del gran robo del siglo. Se dejan deslumbrar por las promesas de competitividad, eficiencia y futuro digital, pero no entienden —o no quieren entender— que sin autores no hay industria cultural, sin periodistas no hay democracia, sin editores no hay libros. Hablan de transición digital, de hubs de innovación, de liderazgo europeo en inteligencia artificial, pero todo queda en planes estratégicos sin dotación real para los creadores. Se firman manifiestos, se anuncian comités, se multiplican los observatorios de IA ética, pero nadie legisla lo esencial: cómo se remunera a quienes sostienen con su trabajo el contenido que alimenta a las máquinas.
En España, el Ministerio de Cultura y Deporte se limita a organizar reuniones y a prometer futuras reformas que nunca llegan; la Secretaría de Estado de Digitalización e Inteligencia Artificial, del ministerio para la Transformación Digital y de Función Pública, presume de planes de IA que solo financian a tecnológicas extranjeras; Red.es anuncia convocatorias millonarias para digitalización sin una sola cláusula que obligue a compensar a los titulares de derechos; la Comisión Nacional de los Mercados y la Competencia ni siquiera entra en el debate sobre el abuso de posición de las grandes plataformas; y la propia Comisión Europea, con su flamante Ley de Inteligencia Artificial, recubre de transparencia obligatoria lo que en la práctica sigue siendo un campo abierto al expolio cultural. Es necesario que la CNMC investigue los acuerdos exclusivos y absolutamente confidenciales que están firmando algunas empresas de IA con grupos editores dominantes (OpenAi con Prisa o Perplexity con A3) y las consecuencias que esos pactos pueden tener en el adoctrinamiento de la audiencia. Todo son promesas, informes y titulares, mientras quienes crean siguen siendo invisibles para las políticas públicas.
Ha llegado la hora de decir basta. No podemos permitir que los gobiernos conviertan la cultura en carne de cañón para entrenar algoritmos sin pagar un euro a quienes la sostienen. La unidad de los creadores no es una opción, es una obligación. Los editores de prensa y libros, los autores musicales, los ilustradores, los fotógrafos, los guionistas y en definitiva todos los que producimos contenido debemos organizarnos como un solo frente. Exigimos una respuesta inmediata de las instituciones: mecanismos de remuneración por token, auditorías independientes y licencias obligatorias que devuelvan dignidad a nuestro trabajo. No queremos más comités, ni más planes estratégicos sin presupuesto, ni más congresos con palabras huecas. Queremos leyes y dinero. Desde Jot Down llamamos a proclamar cada 30 de noviembre El Día del Expolio Cultural inundando los digitales y las redes con un grito común: compensación justa ya, porque sin justicia para los creadores no hay futuro para la cultura.
Nota del autor: el 30 de noviembre de 2022 fue el día en que OpenAI lanzó públicamente ChatGPT, el prototipo gratuito basado en GPT-3.5 que puso la inteligencia artificial generativa en el centro del debate mundial. Ángel L. Fernández Recuero -jotdonw
Artículos relacionados :
No hay artículos relacionados
Noticia anterior
Noticia siguiente
Carrer de Canuda, 6. 5ª Planta
08002 Barcelona
Telf: 93 318 87 48 | Email info@acec.cat