Entre demandas y acuerdos, las editoriales le marcan límites a la Inteligencia Artificial
Mientras crecen las demandas judiciales por uso indebido de contenido protegido, algunas editoriales y empresas tecnológicas exploran acuerdos de licencia que podrían cambiar las reglas del juego. El conflicto entre la industria editorial y la inteligencia artificial se intensifica.
Editoriales de todo el mundo tomaron nota cuando el New York Times demandó a OpenAI y Microsoft en diciembre de 2023 por utilizar millones de artículos para entrenar modelos como ChatGPT sin permiso. El periódico más influyente de Estados Unidos no solo denunció el uso no autorizado de su contenido, sino que encendió una disputa global sobre los derechos de autor en tiempos de inteligencia artificial.
En su presentación ante la Corte Federal de Manhattan, el Times fue tajante: «Los acusados buscan beneficiarse del periodismo del Times sin pagar por ello», acusó el medio, que también alertó que los modelos de IA replican fragmentos textuales casi idénticos a los artículos originales. La causa sigue abierta y representa apenas una de las muchas que se multiplican en todo el mundo.
Demandas en aumento: la propiedad intelectual en jaque
El conflicto ha adquirido escala global. En Francia, varias editoriales, junto con asociaciones de escritores, llevaron a Meta a los tribunales por un motivo similar: haber utilizado obras protegidas para entrenar su modelo sin autorización. En Nueva York, un grupo de autores demandó a Microsoft por presuntamente haber empleado una base de datos con más de 180.000 libros pirateados. La cifra reclamada impacta: hasta 150.000 dólares por cada obra utilizada sin permiso.

La comediante y escritora Sarah Silverman también inició una demanda en 2023 contra OpenAI y Meta, argumentando que sus libros fueron utilizados sin su consentimiento. Aunque su caso fue parcialmente desestimado, puso sobre la mesa la vulnerabilidad de los creadores individuales frente a los gigantes tecnológicos.
Editoriales: una carta, mil voces
La tensión escaló aún más cuando más de 1.100 autores —entre ellos Margaret Atwood, Jodi Picoult y Viet Thanh Nguyen— firmaron una carta Contra la IA: una carta abierta de escritores a editores, HarperCollins y Hachette. El pedido fue directo: que las editoriales se comprometan a no publicar libros generados por IA sin consentimiento, y que no permitan el uso de sus catálogos para entrenamiento de algoritmos sin una licencia expresa.
“La IA ha sido entrenada con nuestras palabras, nuestras historias, sin nuestro permiso ni compensación. Es una forma de robo”, escribieron. La carta, impulsada por la Authors Guild, marcó un punto de inflexión en la movilización colectiva de los autores.
La otra cara: cuando las negociaciones sí avanzan
Pero mientras crece la judicialización del conflicto, también surgen acuerdos comerciales. OpenAI, la misma empresa demandada por varios medios, firmó en agosto de 2024 un acuerdo con Condé Nast —editora de títulos como The New Yorker, Vogue y Wired— que le permite utilizar contenido periodístico en sus plataformas, incluido ChatGPT, a cambio de una compensación y atribución adecuadas.

Poco después, OpenAI selló un pacto multimillonario con News Corp, dueña del Wall Street Journal y The Times de Londres. “Este acuerdo reconoce el valor de nuestro periodismo y establece un modelo sostenible para el futuro”, dijo el CEO de News Corp, Robert Thomson, tras el anuncio en mayo de 2024.
Incluso Amazon entró en escena: según The Wall Street Journal, la empresa de Jeff Bezos pagará entre 20 y 25 millones de dólares anuales al New York Times por una licencia que habilita el uso de contenido para sus sistemas de IA.
Silencios, cláusulas y decisiones estratégicas
No todas las editoriales quieren negociar. Penguin Random House —la mayor del mundo en volumen de publicaciones— fue contundente: no permitirá que sus libros sean utilizados para entrenar inteligencia artificial. Incluso comenzó a incluir cláusulas contractuales que lo prohíben expresamente.
Por su parte, otras como HarperCollins y Wiley optaron por abrir el diálogo. Según trascendió, HarperCollins ofreció contratos individuales de hasta 2.500 dólares por libro para licencias de uso por tres años. Aunque los términos aún generan debate dentro del sector, el modelo empieza a replicarse.

¿Fair use o uso indebido?
Una de las grandes preguntas del conflicto gira en torno a la figura del “uso justo” o fair use, un concepto legal que, en ciertos contextos, permite el uso limitado de obras protegidas sin permiso. Las empresas tecnológicas se amparan en esta doctrina para defender la legalidad del entrenamiento de sus modelos. Pero no todos los jueces están convencidos.
En abril de 2025, un tribunal estadounidense rechazó el pedido de OpenAI de desestimar parcialmente la demanda del New York Times, lo que significa que el caso avanzará. Aunque no define aún si hubo infracción, muestra que el «uso justo» no será una defensa automática ni universal.
Una nueva legislación en el horizonte
El conflicto también ha llegado al Congreso estadounidense. En julio de 2025, senadores de ambos partidos presentaron el AI Accountability and Personal Data Protection Act, un proyecto de ley que busca facilitar las demandas contra empresas que utilicen datos protegidos sin autorización. Entre otras medidas, exige mayor transparencia sobre las fuentes utilizadas para entrenar sistemas de IA.
A nivel internacional, Europa también avanza. El reciente AI Act obliga a las empresas a revelar si entrenaron modelos con contenido protegido, y a respetar los derechos de autor en todos los casos. Iniciativas como la de la European Broadcasting Union y WAN-IFRA (World Association of News Publishers) piden que la IA no avance sin respetar la integridad del periodismo.
Leer más
- ChatGPT Agent: ¿Qué es y como se activa?
- La nueva era de las búsquedas: la IA desafía a Google
- o3-mini reduce errores y ya está en ChatGPT gratis





