4 min lectura
KC Green creó "This Is Fine" en 2013 para su webcomic Gunshow. Un perro de caricatura sentado sonriendo en una habitación en llamas declara que todo está bien. Si has pasado algún tiempo en internet durante la última década, sin duda has visto el meme. Pero ahora, una startup de inteligencia artificial lo está usando para vender software de automatización de ventas mediante un anuncio en el metro de Nueva York. El problema es que nadie le preguntó a Green.
La empresa es Artisan, conocida principalmente por plasmar carteles de "Stop Hiring Humans" por todo San Francisco y por presentar al infame "Lobo de Wall Street" Jordan Belford en sus anuncios. En su más reciente campaña, la burbuja de diálogo del perro ahora dice "My pipeline is on fire", con un mensaje superpuesto que insta a los pasajeros a "contratar a Ava the AI BDR".
Ava es la representante de desarrollo comercial impulsada por inteligencia artificial de Artisan, el producto principal de una empresa que recaudó $25 millones en abril de 2025.
Green se enteró de la manera en que los artistas suelen enterarse hoy en día: alguien lo etiquetó en redes sociales. Fue Daniel Radosh, un guionista y productor ganador del Emmy en The Daily Show, cuya próxima comedia de terror The Big Kill está actualmente en producción. "No hay manera de que KC Green haya aprobado esto", escribió Radosh en Bluesky. "Aunque es difícil creer que una empresa de IA simplemente robaría el trabajo de alguien".
La respuesta de Green no fue amable. "He recibido más mensajes de personas contándome sobre esto y no es algo que haya acordado", escribió. "Ha sido robado, como la IA roba".
"Por favor, vandalizenlo si y cuando lo vean".
La publicación ya había sido vandalizada cuando Radosh etiquetó a Green.
KC Green señaló que le había enviado un correo a alguien en la empresa, pero que no esperaba mucha respuesta. Pocos minutos después, silenció el hilo. Las notificaciones se habían vuelto abrumadoras. "Váyanse a dormir, es tarde", les dijo a quienes se sumaron al aluvión de críticas.
Artisan afirmó que tiene "mucho respeto por KC Green y su trabajo" y que se estaba comunicando directamente con él. En un comunicado posterior, la empresa indicó que había programado una reunión para hablar con él.
El CEO de Artisan, Jaspar Carmichael-Jack, ha escrito que la campaña "Stop Hiring Humans" fue "una provocación" diseñada para generar atención. También reconoció en el blog de la empresa que el cartel era "principalmente solo para llamar la atención" y que en realidad no cree que la IA vaya a reemplazar a todos los trabajadores humanos. La empresa ha apostado desde entonces por la controversia como estrategia de marketing, y esta vez tiene un problema de derechos de autor que lo demuestra.
Este no es un patrón aislado. El uso no consentido de la IA para apropiarse de las obras, imágenes y propiedad intelectual de los creadores es una tendencia creciente que parece estar lejos de terminar.
En febrero de 2025, publicistas digitales israelíes crearon un video deepfake viral con imágenes generadas por IA de Scarlett Johansson, Drake, Jerry Seinfeld, Steven Spielberg y otros, todos portando camisetas de protesta anti-Kanye, sin el consentimiento de ninguna de las celebridades. Johansson lo condenó: "El potencial del discurso de odio multiplicado por la IA es una amenaza mucho mayor que cualquier persona que asuma la responsabilidad de ello", afirmó.
El año pasado, MrBeast retiró una herramienta de miniaturas con IA luego de que creadores, como el youtuber irlandés "Jacksepticeye", descubrieran que sus logos y estilos visuales habían sido usados sin permiso en materiales promocionales. Los artistas han presentado múltiples demandas por derechos de autor relacionadas con datos de entrenamiento de IA. El caso de Green es distinto a todos esos: Artisan no entrenó un modelo con su trabajo. Simplemente tomaron la imagen, la modificaron con IA y la pegaron en una pared.
Green dijo que está considerando emprender acciones legales.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.