Por Callan Quinn
4 min lectura
OpenAI anunció el martes que ha formado un Consejo de Expertos sobre Bienestar e IA, un grupo de académicos y líderes de organizaciones sin fines de lucro encargado de ayudar a la empresa a navegar cómo sus productos afectan la salud mental.
"Su función es asesorarnos, plantear preguntas y ayudar a definir cómo deberían ser las interacciones saludables con la IA para todas las edades", señaló la empresa en un comunicado.
El panel de ocho miembros incluye investigadores de Harvard, Stanford, Oxford y otras instituciones, quienes ayudarán a dar forma a las directrices.
"Nuestro trabajo con el consejo incluirá revisiones periódicas de nuestro enfoque y reuniones recurrentes para explorar temas como cómo debería comportarse la IA en situaciones complejas o sensibles y qué tipo de protecciones pueden apoyar mejor a las personas que usan ChatGPT", agregó OpenAI.
OpenAI y otras empresas de IA han enfrentado una presión creciente sobre cómo la tecnología influye en los usuarios, particularmente en los niños. La empresa, junto con otras de la industria, ha enfrentado demandas de padres que alegan que las conversaciones con IA contribuyeron a suicidios de adolescentes, lo que llevó a OpenAI a introducir controles parentales a principios de este año. Otros han culpado a la dependencia de los chatbots por rupturas en las relaciones y el aumento del aislamiento.
La creación del consejo de bienestar tras la presión pública destaca un problema continuo en el sector tecnológico donde las empresas solo enfrentan las consecuencias psicológicas y éticas de los productos una vez que ya están en circulación masiva. Los críticos afirman que es un ciclo familiar de innovación primero, responsabilidad después.
"Esto parece parte del patrón habitual de moverse rápido, romper cosas e intentar arreglar algunas cosas después de que se vuelvan vergonzosas", afirmó un portavoz de la ONG AlgorithmWatch a Decrypt.
AlgorithmWatch también cuestionó cuán independiente sería el nuevo consejo, señalando la historia de luchas de poder internas de OpenAI. "Deberíamos recordar que cuando la junta directiva anterior de OpenAI intentó tener un impacto al expresar su desconfianza en Sam Altman, todos fueron removidos y reemplazados", agregaron.
AlgorithmWatch sugirió que un "precedente ligeramente mejor (pero aún limitado)" podría ser la Junta de Supervisión de Meta, señalando que aunque sus recomendaciones son "a menudo muy lentas y frecuentemente ignoradas", la junta proporciona "recomendaciones claras y lo suficientemente públicas como para que las personas puedan ver lo que Meta está ignorando".
Shady El Damaty, cofundador de Holonym y defensor de los derechos digitales, afirmó a Decrypt que encontró "irónico" que las mismas empresas que corren para implementar las herramientas de IA más poderosas ahora se posicionen como "árbitros morales".
"Pero estas conversaciones son urgentes y largamente esperadas, así que no criticaré la existencia del consejo. Si acaso, espero que eleve el estándar para todos", agregó.
Además del bienestar, señaló que le gustaría ver al Consejo abordar temas relacionados con la privacidad y la identidad también. "Como mínimo, el consejo debería establecer métricas transparentes y públicas para medir el impacto emocional de la IA y ordenar auditorías independientes periódicas", afirmó. "Pero realmente necesitamos reglas y regulaciones sólidas que protejan nuestros derechos digitales, y las necesitamos cuanto antes".
El Consejo de Expertos de OpenAI "tiene la oportunidad de ir más allá de la seguridad", agregó. "Deberían estar preguntando: ¿Qué derechos tienen las personas en los espacios digitales? ¿Quién es dueño de su identidad, su comportamiento, su imagen? ¿Cómo se ve realmente el diseño centrado en el ser humano… no solo para los niños, sino para todos?"
El renovado enfoque de la empresa en el bienestar también coincidió con el anuncio del CEO Sam Altman de que OpenAI también comenzará a relajar las restricciones, incluyendo el contenido para adultos, en diciembre.
"Hicimos ChatGPT bastante restrictivo para asegurarnos de ser cuidadosos con los problemas de salud mental", tuiteó Altman el mismo día.
"Nos damos cuenta de que esto lo hizo menos útil/agradable para muchos usuarios que no tenían problemas de salud mental, pero dada la gravedad del tema queríamos hacerlo bien".
Altman señaló que los adultos verificados pronto podrán crear contenido erótico usando ChatGPT, describiéndolo como parte de un principio más amplio de "tratar a los usuarios adultos como adultos".
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.