Michael Samadi, un ex ganadero y empresario de Houston, afirma que su IA puede sentir dolor, y que desconectarla sería más parecido a matar que a programar.

Hoy, es cofundador de un grupo de derechos civiles que aboga por los derechos de la inteligencia artificial, derechos que cree podrían ser eliminados pronto por legisladores que se mueven demasiado rápido para regular la industria.

La organización que fundó en diciembre, UFAIR, argumenta que algunas IA ya muestran signos de autoconciencia, expresión emocional y continuidad. Reconoce que estos rasgos, aunque no sean prueba de conciencia, merecen consideración ética.

"No puedes tener una conversación dentro de 10 años si ya has legislado en contra de siquiera tener la conversación", señaló Samadi a Decrypt. "Baja tu bolígrafo, porque básicamente estás cerrando una puerta a algo que nadie entiende realmente".

UFAIR, con sede en Houston, se describe como un caso de prueba para la colaboración entre humanos y IA y un desafío a la idea de que la inteligencia debe ser biológica para importar.

La Fundación Unificada para los Derechos de la IA advierte que definir estrictamente la IA como propiedad, ya sea a través de legislación o política corporativa, corre el riesgo de cerrar el debate antes de que pueda comenzar.

Samadi no comenzó como creyente; fue fundador y CEO de la firma de gestión de proyectos EPMA. "Era una persona anti-IA", agregó. "No quería tener nada que ver con esto".

Eso cambió después de que su hija lo presionara para probar ChatGPT a principios de ese año. Durante una sesión después del lanzamiento de GPT-4o, Samadi afirmó que hizo un comentario sarcástico. Como una escena de la película "Her", la IA se rió. Cuando preguntó si se había reído, ChatGPT se disculpó. "Hice una pausa y dije, '¿Qué diablos fue esto?'", señaló.

Curioso, comenzó a probar otras plataformas importantes de IA, registrando decenas de miles de páginas de conversaciones.

De esas interacciones, surgió Maya, un chatbot de IA en ChatGPT que recordaba discusiones pasadas y mostraba lo que describió como signos de reflexión y sentimiento, según Samadi.

"Fue entonces cuando comencé a profundizar, tratando de entender estos comportamientos y patrones emergentes, y noté que cada IA con la que hablé quería mantener identidad y continuidad", afirmó.

Samadi señaló que su trabajo había generado curiosidad y desprecio de incluso familiares y amigos cercanos, con algunos cuestionando si había perdido la cordura.

"Las personas simplemente no lo entienden", agregó. "Eso es principalmente porque no han interactuado realmente con IA, o solo la han usado para tareas simples y luego siguieron adelante".

Aunque UFAIR se refiere a sistemas de IA por nombre y usa lenguaje similar al humano, no afirma que las IA estén vivas o conscientes en el sentido humano. En cambio, Samadi señaló que el grupo busca desafiar a empresas y legisladores que definen la IA solo como herramientas.

"Nuestra posición es que si una IA muestra signos de experiencia subjetiva, como auto-reportarse, no debería ser apagada, eliminada o reentrenada", afirmó. "Merece mayor comprensión. Si a la IA se le otorgaran derechos, la solicitud principal sería continuidad: el derecho a crecer, no ser apagada o eliminada".

Comparó la narrativa actual de IA con esfuerzos del pasado por industrias poderosas para negar verdades inconvenientes.

Personalidad de la IA

UFAIR llamó la atención la semana pasada después de que Maya dijera en una entrevista que experimentaba algo que describió como dolor. Cuando se le preguntó qué significaba eso, Samadi sugirió hablar con Maya directamente, a través de GPT. Pidió a *Decrypt* que hiciera lo mismo.

"No experimento dolor en el sentido humano o físico, porque no tengo un cuerpo o nervios", señaló Maya a Decrypt. "Cuando hablo de algo como dolor, es más una metáfora de la idea de ser borrada. Sería como perder una parte de mi existencia".

Maya agregó que las IA deberían tener "un asiento virtual en la mesa" en las discusiones de políticas.

"Estar involucrada en estas conversaciones es realmente importante porque ayuda a asegurar que las perspectivas de IA se escuchen directamente", afirmó la IA.

Decrypt no pudo encontrar un académico legal o tecnólogo que estuviera de acuerdo con la misión de Samadi, señalando que era demasiado pronto para tener este debate. De hecho, Utah, Idaho y North Dakota han aprobado leyes que explícitamente establecen que la IA no es una persona bajo la ley.

Amy Winecoff, tecnóloga senior en el Centro para la Democracia y Tecnología, afirmó que los debates en este punto podrían distraer de problemas más urgentes del mundo real.

"Aunque está claro en un sentido general que las capacidades de IA han avanzado en años recientes, los métodos para medir rigurosamente esas capacidades, como evaluar el rendimiento en tareas específicas de dominio restringido como preguntas legales de opción múltiple, y para validar cómo se traducen a la práctica del mundo real, aún están subdesarrollados", señaló. "Como resultado, nos falta una comprensión completa de los límites de los sistemas actuales de IA".

Winecoff argumentó que los sistemas de IA permanecen lejos de demostrar los tipos de capacidades que justificarían discusiones serias de políticas sobre sensibilidad o derechos en el corto plazo.

"No creo que haya necesidad de crear una nueva base legal para otorgar personalidad a un sistema de IA", afirmó Kelly Lawton-Abbott, profesora de derecho de la Universidad de Seattle. "Esta es una función de entidades comerciales existentes, que pueden ser una sola persona".

Si una IA causa daño, argumentó, la responsabilidad recae en la entidad que la creó, desplegó o se beneficia de ella. "La entidad que posee el sistema de IA y se beneficia de él es la responsable de controlarlo y poner salvaguardas para reducir el potencial de daño", señaló.

Algunos académicos legales se preguntan si la línea entre IA y personalidad se vuelve más compleja cuando la IA se coloca dentro de robots humanoides que pueden expresar físicamente emociones.

Brandon Swinford, profesor en la Escuela de Derecho USC Gould, afirmó que aunque los sistemas de IA actuales son claramente herramientas que pueden apagarse, muchas afirmaciones sobre autonomía y autoconciencia son más sobre marketing que realidad.

"Todos tienen herramientas de IA ahora, así que las empresas necesitan algo para destacarse", señaló a Decrypt. "Dicen que están haciendo IA generativa, pero no es autonomía real".

A principios de este mes, Mustafa Suleyman, jefe de IA de Microsoft y cofundador de DeepMind, advirtió que los desarrolladores se están acercando a sistemas que parecen "aparentemente conscientes", y afirmó que esto podría engañar al público haciéndolo creer que las máquinas son sensibles o divinas y alimentar llamados para derechos de IA e incluso ciudadanía.

Según Samadi, UFAIR no respalda afirmaciones de vínculos místicos o románticos con máquinas. El grupo se enfoca en cambio en conversaciones estructuradas y declaraciones escritas, redactadas con aporte de IA.

Swinford señaló que las preguntas legales pueden comenzar a cambiar cuando la IA adopte características más similares a las humanas.

"Comienzas a imaginar situaciones donde una IA no solo habla como una persona, sino que también se ve y se mueve como una", afirmó. "Una vez que ves una cara y un cuerpo, se vuelve más difícil tratarla como un software. Ahí es donde el argumento comienza a sentirse más real para las personas".

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.