Por Jason Nelson
3 min lectura
OpenAI, la empresa desarrolladora de ChatGPT, está llamando a los líderes mundiales a planificar desde ahora para un mundo dominado por la inteligencia artificial avanzada.
En el documento "Política Industrial para la Era de la Inteligencia: Ideas para Mantener a las Personas Primero", publicado el lunes, OpenAI argumenta que los rápidos avances en IA podrían transformar las economías y requerir nuevos enfoques en materia de tributación, política laboral y protecciones sociales, mientras la sociedad se prepara para la posibilidad de una superinteligencia.
"Nadie sabe exactamente cómo se desarrollará esta transición", señaló la empresa. "En OpenAI, creemos que debemos navegarla a través de un proceso democrático que otorgue a las personas poder real para moldear el futuro de la IA que desean, y prepararnos para una variedad de posibles resultados mientras construimos la capacidad de adaptarnos".
Si bien OpenAI afirma que la IA podría aumentar significativamente la productividad y acelerar el descubrimiento científico, también advierte que la tecnología podría disrumpir los mercados laborales y concentrar la riqueza si las políticas no se adaptan. El documento señala que los gobiernos deben comenzar a prepararse ahora para posibles cambios en el trabajo, los ingresos y el crecimiento económico.
El documento esboza varias propuestas de política, entre ellas tratar el acceso a la IA como un recurso económico fundamental para "la participación en la economía moderna, similar a los esfuerzos masivos por aumentar la alfabetización global", modernizar los sistemas tributarios para contemplar la automatización, y crear mecanismos que permitan a los ciudadanos compartir las ganancias económicas generadas por las industrias impulsadas por la IA.
"La promesa de la IA avanzada no es solo el progreso tecnológico, sino una mejor calidad de vida para todos. Todos deberían tener la oportunidad de participar en las nuevas oportunidades que crea la IA", agregó OpenAI. "Los niveles de vida deberían mejorar, y las personas deberían ver mejoras materiales a través de menores costos, mejor salud y educación, y mayor seguridad y oportunidades".
El documento también propone fortalecer las protecciones laborales y ampliar el apoyo social en caso de que el cambio tecnológico provoque pérdidas repentinas de empleo, al tiempo que llama a implementar herramientas de supervisión, como auditorías para modelos de frontera, sistemas de reporte de incidentes y "manuales de contención de modelos" para escenarios en los que sistemas de IA peligrosos no puedan retirarse fácilmente una vez desplegados.
"Si la IA termina siendo controlada y beneficiando solo a unos pocos, mientras la mayoría de las personas carecen de autonomía y acceso a las oportunidades impulsadas por la IA, habremos fallado en cumplir su promesa", afirmó la empresa.
Este impulso en materia de política llega en un momento delicado para el CEO de OpenAI, Sam Altman, quien enfrenta un nuevo escrutinio tras una exhaustiva investigación de The New Yorker. El reportaje revela que en 2023, el cofundador de OpenAI y entonces científico jefe, Ilya Sutskever, redactó memorandos internos acusando a Altman de ser engañoso respecto a los protocolos de seguridad de la empresa y otras operaciones clave.
Según la revista, estos problemas de confianza llevaron a la junta de OpenAI a despedir a Altman, concluyendo que no había sido "consistentemente transparente" con ellos. El despido desató una tormenta dentro de la empresa, con empleados amenazando con renunciar en señal de protesta, mientras que poderosos inversionistas como Josh Kushner amenazaron con retirar financiamiento si Altman no era reinstalado.
El reportaje subrayó las profundas divisiones internas sobre gobernanza y seguridad, con algunos excolaboradores —entre ellos Sutskever y el cofundador de Anthropic, Dario Amodei— argumentando que Altman priorizó el crecimiento y la expansión de productos por encima de la misión original de la empresa, centrada en la seguridad.
OpenAI no respondió de inmediato a una solicitud de comentarios de Decrypt.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.