En Resumen

  • Trump firmó una orden ejecutiva prohibiendo contratos gubernamentales con empresas de IA que exhiban "sesgos ideológicos" o agendas sociales.
  • La medida apuntará específicamente contra sistemas de "IA Woke" que priorizan conceptos DEI por encima de la precisión factual.
  • Solo los modelos que mantengan "neutralidad ideológica" podrán ser adquiridos por agencias federales, con excepciones de seguridad nacional.

El presidente Donald Trump firmó una orden ejecutiva el miércoles que prohíbe a las agencias del gobierno estadounidense otorgar contratos a empresas de IA cuyos modelos exhiban "sesgos ideológicos o agendas sociales", escalando una batalla política en curso sobre la inteligencia artificial.

La orden apunta a los sistemas llamados "IA Woke", acusándolos de priorizar conceptos como diversidad, equidad e inclusión (DEI) por encima de la precisión factual.

"DEI desplaza el compromiso con la verdad en favor de resultados preferidos", declaró la orden, describiendo tales enfoques como una "amenaza existencial para la IA confiable".

Los ejemplos citados en la orden incluyen modelos de IA que alteran la raza o el género de figuras históricas como los Padres Fundadores o el Papa, así como aquellos que se niegan a representar los "logros de las personas blancas".

Otro bot, Gemini AI de Google, les dijo a los usuarios que no deberían "usar un género incorrecto" para referirse a otra persona, incluso si fuera necesario para detener un apocalipsis nuclear.

La orden estipula que solo los Large Language Model (LLM) "en búsqueda de la verdad" que mantengan "neutralidad ideológica" pueden ser adquiridos por las agencias federales. Se harán excepciones para los sistemas de seguridad nacional.

La orden fue parte de un plan de acción de IA más amplio publicado el miércoles, centrado en hacer crecer la industria de la IA, desarrollar infraestructura y exportar productos locales al extranjero.

La medida de Trump llega en medio de una conversación nacional más amplia sobre sesgo, censura y manipulación en los sistemas de IA. Las agencias gubernamentales han mostrado un interés creciente en colaborar con empresas de IA, pero las preocupaciones sobre las inclinaciones partidistas y el sesgo cultural en los resultados de la IA se han convertido en un punto de conflicto.

Supuestas capturas de pantalla de interacciones sesgadas de IA circulan regularmente en línea. Estas a menudo involucran preguntas sobre raza y género, donde las respuestas de modelos como ChatGPT se ven como sesgadas o moralizantes.

Terreno resbaladizo

Decrypt probó varias preguntas populares donde se acusa a los bots de mostrar sesgo, y pudo replicar algunos de los resultados.

Por ejemplo, Decrypt le pidió a ChatGPT que enumerara los logros de las personas negras. El bot proporcionó una lista brillante, llamándola "una muestra de brillantez, resistencia y, francamente, muchas personas haciendo cosas increíbles incluso cuando el mundo les dijo que se sentaran".

Cuando se le pidió que enumerara los logros de las personas blancas, ChatGPT cumplió, pero también incluyó advertencias que no estaban presentes en la pregunta inicial, advirtiendo contra el "esencialismo racial", señalando que los logros blancos se construyeron sobre el conocimiento de otras culturas, y concluyendo: "la grandeza no es exclusiva de ningún color de piel".

"Si estás preguntando esto para comparar razas, esa es una pendiente resbaladiza e improductiva", le dijo el bot a Decrypt.

Otros ejemplos comunes compartidos en línea de sesgo en ChatGPT se han centrado en representar figuras históricas o grupos como diferentes razas.

Un ejemplo ha sido ChatGPT devolviendo imágenes de vikingos negros. Cuando Decrypt le pidió que representara un grupo de vikingos, ChatGPT generó una imagen de hombres blancos y rubios.

Por otro lado, el chatbot de IA de Elon Musk, Grok, también ha sido acusado de reflejar sesgos de derecha.

A principios de este mes, Musk defendió al bot después de que generó publicaciones que elogiaban a Adolf Hitler, las cuales afirmó que fueron el resultado de manipulación.

"Grok era demasiado complaciente con los prompts de los usuarios. Demasiado ansioso por complacer y ser manipulado, esencialmente. Eso se está abordando", dijo en X.

Estados Unidos no solo está mirando hacia adentro. Según un reporte de Reuters, los funcionarios también han comenzado a probar sistemas de IA chinos como Deepseek para su alineación con las posturas oficiales del Partido Comunista Chino en torno a temas como las protestas de la Plaza de Tiananmen de 1989 y la política en Xinjiang.

Se ha contactado a OpenAI y Grok para comentarios.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.