IA Generativa: Un Riesgo de Demanda para Empresas

Theregister

A medida que las empresas recurren cada vez más a las herramientas de IA generativa en busca de ahorros de costos, particularmente en esfuerzos creativos, muchas están ingresando inadvertidamente en un campo minado legal. Si bien estos algoritmos avanzados pueden producir rápidamente comunicaciones dirigidas al público, desde logotipos y textos promocionales hasta sitios web completos, el potencial de infracción de derechos de autor es enorme, amenazando con cuantiosas facturas legales.

Según Kit Walsh, Directora de Proyectos Legales de IA y Acceso al Conocimiento en la Electronic Frontier Foundation, el principio legal es sencillo: si la IA genera contenido “sustancialmente similar” a una obra protegida por derechos de autor, es probable que haya ocurrido una infracción, a menos que califique como uso justo. El peligro no se limita a la apropiación deliberada; incluso una indicación neutral, como pedir a Bing Image Creator un “fontanero de videojuegos”, puede generar propiedad intelectual con derechos de autor como el familiar personaje de Super Mario. En tales casos, las empresas aún podrían ser consideradas responsables, independientemente de su intención o conocimiento. Para mitigar estos riesgos significativos, Walsh aconseja a las empresas desarrollar una política legal de IA sólida en colaboración con su asesor legal general y, fundamentalmente, asegurar la revisión humana de todos los materiales públicos generados por IA.

Las repercusiones financieras de la infracción pueden variar. Benjamin Bedrava, quien dirige la práctica de propiedad intelectual en la firma de Miami EGPD, señala que una pequeña empresa que infrinja los derechos de autor de una entidad grande como Nintendo podría recibir inicialmente una carta de cese y desista, ofreciendo una oportunidad para rectificar la situación antes de que se inicie una demanda. Sin embargo, si la parte agraviada es un competidor directo o una empresa de tamaño comparable, el camino hacia el litigio se vuelve mucho más directo. Los daños pueden ser sustanciales, determinados por factores como las ganancias derivadas de los materiales infractores y si la infracción fue “intencional”. Bajo el Título 17 del Código de los EE. UU., Capítulo 5, los titulares de derechos de autor pueden reclamar daños reales (incluidas las ganancias del demandado) o daños estatutarios, que oscilan hasta $30,000 por obra infringida, escalando a $150,000 si se demuestra que la infracción fue intencional. Si bien los tribunales a veces pueden otorgar daños equivalentes a una tarifa de licencia (que podría ser tan baja como $1,500), la verdadera carga financiera a menudo reside en honorarios legales paralizantes, que pueden alcanzar fácilmente los $150,000. Más allá de las sanciones monetarias, verse obligado a abandonar un logotipo o eslogan generado por IA puede resultar en pérdidas significativas de las inversiones ya realizadas en materiales de marca y marketing, como señalización, vallas publicitarias o desarrollo de sitios web.

Una idea errónea común es que la empresa de IA que proporciona la herramienta generativa (ya sea Meta, OpenAI, Midjourney, Google o Microsoft) asumirá las consecuencias legales. Sin embargo, un vistazo a los Términos de Servicio (TOS) de la mayoría de los proveedores de IA revela exenciones de responsabilidad por demandas que surjan del contenido generado por el usuario. Los TOS de OpenAI, por ejemplo, establecen explícitamente que las empresas deben indemnizar a la compañía contra reclamos de terceros relacionados con el uso de sus servicios y contenido. De manera similar, los TOS del creador de imágenes de Bing niegan cualquier garantía de que su material generado evite infringir los derechos de terceros.

Si bien algunos actores importantes como Microsoft, OpenAI y Anthropic han comenzado a ofrecer una indemnización limitada a ciertos clientes comerciales de pago, estas políticas están lejos de ser una “carta de salida de la cárcel”. Dichos acuerdos a menudo vienen con numerosas advertencias, lo que los hace notoriamente poco fiables. Por ejemplo, la indemnización de OpenAI para los usuarios de API, ChatGPT Team o ChatGPT Enterprise no se aplica si el cliente “sabía o debería haber sabido” que la salida era infractora, si se ignoraron las características de seguridad, si la salida se modificó o combinó con productos no OpenAI, o si el cliente carecía de derechos sobre la entrada. Como señala el abogado Mike Poropat de Stockman & Poropat, las indemnizaciones “nunca son sólidas” y pueden desmantelarse fácilmente, con la cláusula “debería haber sabido” que representa una “red abierta” para la responsabilidad. También surgen preguntas sobre qué constituye “modificación”: ¿simplemente recortar una imagen en Photoshop o editar texto en Word anula la indemnización? En última instancia, estas disposiciones ofrecen un mecanismo para perseguir a la plataforma de IA, no un escudo garantizado contra la acción legal inicial.

A pesar de sus exenciones de responsabilidad con respecto a la responsabilidad del usuario, los propios proveedores de IA se enfrentan cada vez más a desafíos legales de los titulares de derechos de autor que argumentan que estas plataformas permiten la infracción. En junio de 2025, Disney y Universal presentaron notablemente una demanda contra Midjourney, alegando infracción de derechos de autor directa y secundaria. Los estudios afirman que Midjourney infringió directamente sus obras al reproducir, mostrar, distribuir y crear obras derivadas tanto durante su fase de entrenamiento como en las salidas generadas para los suscriptores. Midjourney, sin embargo, sugiere que los usuarios son los únicos responsables de las indicaciones y salidas. Esto lleva a la reclamación de infracción secundaria, donde Disney y Universal sostienen que Midjourney permite o induce la infracción al no bloquear las indicaciones problemáticas y al promover obras de arte infractoras en su sección “Explorar”. Midjourney defiende su proceso de entrenamiento como “uso justo transformador por excelencia”, argumentando que no puede saber si una imagen es infractora sin un aviso específico y el contexto de uso, dadas las muchas usos legítimos no comerciales para los personajes de la cultura popular. Independientemente del resultado de tales demandas de alto perfil, los usuarios individuales siguen expuestos a riesgos legales, aunque las grandes corporaciones suelen apuntar a los generadores de IA por su mayor capacidad financiera.

Más allá del riesgo de infracción, las empresas deben lidiar con otra limitación legal crítica: el contenido generado por IA generalmente no es susceptible de derechos de autor bajo la ley de EE. UU. La Oficina de Derechos de Autor de EE. UU. sostiene que dicho contenido carece de un autor humano, una postura afirmada en casos como Thaler v. Perlmutter, donde se negó el derecho de autor a una imagen generada por IA, y Naruto v. Slater, que estableció que las entidades no humanas no pueden obtener derechos de autor. Si una obra combina elementos generados por humanos y por IA, solo las porciones creadas por humanos califican para la protección de derechos de autor, como se vio con la novela gráfica Zarya of the Dawn.

Sin embargo, hay un lado positivo para la protección de la marca: los logotipos o eslóganes generados por IA pueden registrarse como marcas comerciales. A diferencia de los derechos de autor, las marcas comerciales no requieren autoría humana; simplemente necesitan funcionar como un “indicador de origen”, permitiendo a los consumidores asociar inmediatamente el logotipo o el eslogan con un producto o servicio específico.

Para navegar por este complejo panorama legal, las empresas deben priorizar la supervisión humana. Es esencial verificar a fondo los materiales generados por IA contra obras protegidas por derechos de autor existentes, utilizando herramientas como Google Image Search para imágenes o búsquedas de citas precisas para texto. Si bien la protección de derechos de autor del contenido generado por IA puede ser imposible, el registro de marcas comerciales para los activos de marca ofrece una alternativa viable para proteger la identidad. En última instancia, la salvaguarda más crucial es el “humano en el circuito”. Como aconseja el abogado de propiedad intelectual Travis Stockman, las empresas deben integrar la creatividad humana genuina en los materiales finales, examinar meticulosamente las salidas, documentar su proceso creativo y comprender completamente los términos de licencia de cualquier herramienta de IA que empleen.