En Resumen

  • Acosta publicó una entrevista con un avatar de IA de Joaquín Oliver, víctima del tiroteo de Parkland en 2018, como parte de una campaña para la reforma de armas.
  • Críticos describieron la entrevista como "insana" e "inquietante", cuestionando la ética de recrear digitalmente a personas fallecidas para medios públicos.
  • Investigadores de Cambridge advirtieron sobre las preocupaciones éticas de las recreaciones de IA y solicitaron reglas claras de consentimiento y transparencia.

Un avatar generado por inteligencia artificial de Joaquín Oliver, una víctima del tiroteo en la escuela de Parkland en 2018, apareció en una entrevista publicada por el exreportero de CNN Jim Acosta como parte de una campaña digital para la reforma de armas.

El segmento, creado en colaboración con los padres de Oliver y el grupo de defensa Change the Ref, recibió duras críticas sobre la ética de utilizar recreaciones de IA de los fallecidos en medios públicos.

El video se lanzó en lo que habría sido el 25º cumpleaños de Joaquín, dijo Acosta el lunes. En él, Acosta entrevistó al avatar de IA, que respondió preguntas con respuestas generadas a partir de escritos pasados de Joaquín.

Su padre, Manuel Oliver, apareció junto a la recreación digital y defendió su uso como parte de la defensa continua de la familia.

"Entiendo que esto es IA. No quiero que nadie piense que de alguna manera estoy tratando de traer de vuelta a mi hijo", dijo el padre. "Lamentablemente, no puedo, ¿verdad? Ojalá pudiera. Sin embargo, la tecnología está disponible".

Oliver fue una de las 17 víctimas asesinadas en el tiroteo masivo de 2018 en la Escuela Secundaria Marjory Stoneman Douglas en Parkland, Florida.

Fue uno de los tiroteos escolares más mortales en la historia de EE. UU. y llevó a un amplio debate nacional sobre las leyes de control de armas. Después de esto, los sobrevivientes estudiantes lanzaron el movimiento March for Our Lives, que abogaba por regulaciones de armas más estrictas.

"Insano, inquietante"

Críticos en plataformas de redes sociales describieron la entrevista como "insana" y "inquietante", con comentaristas expresando preocupaciones sobre el consentimiento, el impacto emocional y la posibilidad de tergiversar al difunto.

Aun así, algunas respuestas expresaron simpatía, incluso entre aquellos que no compartían las opiniones políticas de la familia sobre el control de armas, diciendo que podían "simpatizar al 100% con los padres" por tratar de preservar la memoria de su hijo.

"Si tu hijo muere por cualquier motivo, haces todo lo posible para mantener viva su memoria", respondió un comentarista en X.

Otros cuestionaron si el formato cruzaba los límites éticos al simular una conversación con alguien que no puede hablar por sí mismo.

"Estás teniendo una conversación con un procesador de palabras avanzado", señaló otro comentarista en X.

Change the Ref había utilizado previamente la IA en una campaña de 2024 llamada "The Shotline", que presentaba mensajes grabados de víctimas de violencia armada dirigidos a legisladores, incluido Oliver.

Esos mensajes estaban preescritos y se entregaban utilizando voces sintetizadas. Aunque ese esfuerzo también generó debate, algunos lo vieron como más moderado que simular una entrevista interactiva.

En 2024, investigadores de la Universidad de Cambridge advirtieron que las recreaciones de IA de los fallecidos plantean serias preocupaciones éticas. Solicitaron reglas claras de consentimiento, límites de edad, transparencia y formas respetuosas de retirar avatares digitales.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.