En los últimos meses, se ha intensificado el debate sobre el uso que hacen los modelos de inteligencia artificial como GPT de contenido protegido por copyright. En particular, voces críticas argumentan que estas IAs se han “apropiado” de obras con derechos, lo cual supondría una infracción legal.
Sin embargo, es fundamental hacer una distinción crítica desde el punto de vista legal, ético y evolutivo del conocimiento humano:
- Estudiar no es robar. Aprender y generar contenido nuevo es la base de la humanidad.
Desde los inicios del conocimiento, la humanidad ha estudiado, absorbido, reinterpretado y creado sobre la base del trabajo previo de otros. Si estudiar una teoría, entenderla y luego compartir nuestras propias conclusiones fuera ilegal, el conocimiento humano estaría estancado.
Un modelo como GPT no almacena ni reproduce literalmente contenido protegido (salvo casos excepcionales controlables), sino que genera nuevo contenido en base a patrones aprendidos. Esta práctica no es diferente a un humano que estudia libros, artículos y luego escribe algo nuevo.
- No hay apropiación sin uso comercial indebido. GPT no “vende” contenido ajeno.
Las IAs no se presentan como autores de las obras originales, ni las venden como propias. Además, OpenAI y otros modelos ofrecen acceso gratuito a millones de personas. Incluso si hubo “beneficio” por procesar datos protegidos, también hay una devolución masiva de valor a la sociedad.
- El “uso justo” (fair use) y el uso transformativo son clave.
En muchos marcos legales, como el de EE.UU. o Europa, el uso justo permite estudiar, procesar y transformar contenido con fines educativos, informativos o de investigación. La IA entra en este campo cuando no copia ni comercializa directamente contenido, sino que lo transforma y genera valor nuevo
- Los beneficios sociales y científicos no se pueden ignorar.
GPT y otros modelos han ayudado a millones: estudiantes, investigadores, personas con discapacidad, emprendedores. Nadie está obligado a usar GPT, pero quienes lo hacen reciben valor. Esta reciprocidad social justifica, en parte, su existencia y modelo de uso.
- El problema real: el poder sobrehumano que acumulan los dueños de los LLM
El debate actual se enfoca erróneamente en si las IAs “roban” contenido para entrenarse. Esa no es la amenaza verdadera. El riesgo real es que los dueños de los modelos LLM (Large Language Models) acumulen un poder sobrehumano, económico y social, debido a su control exclusivo sobre tecnologías avanzadas que procesan, sintetizan y manipulan información a escala global.
Este poder genera ventajas descomunales frente a individuos, pequeñas empresas, incluso gobiernos. La IA no es peligrosa en sí misma. La concentración de su control sí lo es.
Qué deberíamos discutir realmente?
No si la IA puede estudiar contenido, sino cómo equilibramos el poder que genera su dominio.
¿Cómo se asegura que no haya monopolios de pensamiento, información, o decisiones basadas en IA?
¿Cómo evitamos que el acceso a modelos poderosos quede restringido a elites mientras los demás quedan en desventaja?
El futuro de la IA no se decide en el copyright. Se decide en quién controla el poder que la IA genera.