En Resumen

  • Hinton advirtió que la IA superinteligente podría decidir que la humanidad es obsoleta, señalando que no hay forma de evitar que se deshaga de nosotros si quiere hacerlo.
  • El experto explicó que una IA superinteligente podría diseñar amenazas biológicas para eliminar a la raza humana, creando virus contagiosos y letales.
  • Hinton indicó que el desarrollo de IA no se ralentizará debido a la combinación de motivos de ganancia corporativa y competencia internacional.

Geoffrey Hinton, conocido ampliamente como el "Padrino de la IA", emitió su advertencia más severa hasta ahora en una nueva entrevista, advirtiendo que la inteligencia artificial no solo representa una amenaza para los empleos, sino también un riesgo existencial para la humanidad en su conjunto mientras el mundo avanza hacia máquinas superinteligentes.

Hablando en el podcast "Diary of a CEO", Hinton describió una visión sombría del futuro, sugiriendo que la IA podría eventualmente decidir que la humanidad misma es obsoleta.

"No hay forma de que vayamos a evitar que se deshaga de nosotros si quiere hacerlo", dijo Hinton. "No estamos acostumbrados a pensar en cosas más inteligentes que nosotros. Si quieres saber cómo es la vida cuando no eres la inteligencia superior, pregúntale a un pollo".

Hinton dijo que la amenaza tomará dos formas distintas: aquellas que provienen del mal uso humano, como ataques cibernéticos, la difusión de desinformación y la creación de armas autónomas; y aquellas que surgen de sistemas de IA que se vuelven completamente autónomos e incontrolables.

"Pueden crear armas autónomas letales ahora, y creo que todos los grandes departamentos de defensa están ocupados fabricándolas", dijo. "Incluso si no son más inteligentes que las personas, siguen siendo cosas muy desagradables y aterradoras".

En mayo de 2023, Hinton, un pionero en redes neuronales, dejó Google y la Universidad de Toronto después de más de una década trabajando en inteligencia artificial, para poder hablar libremente sobre los peligros de la tecnología.

La advertencia de Hinton llega en medio de un aumento en las aplicaciones militares de la IA. Los desarrollos recientes han destacado la rápida integración de la tecnología en las operaciones de defensa, con Estados Unidos liderando un aumento en la financiación y asociaciones.

En noviembre, en su intento de aumentar las fuerzas militares con IA y armamento autónomo, el Departamento de Defensa de Estados Unidos solicitó $143.000 millones para investigación y desarrollo en su propuesta de presupuesto de 2025 al Congreso, con $1.800 millones asignados específicamente a IA. Anteriormente ese año, la empresa de software Palantir fue galardonada con un contrato de $175 millones con el Ejército de Estados Unidos para desarrollar sistemas de orientación alimentados por IA.

En marzo, el Pentágono se asoció con Scale AI para lanzar un simulador de campo de batalla para agentes de IA llamado Thunderforge.

Hinton comparó el momento actual con el advenimiento de las armas nucleares, excepto que la IA es más difícil de controlar y es útil en muchos más dominios.

"La bomba atómica solo servía para una cosa, y era muy obvio cómo funcionaba", dijo. "Con la IA, es buena para muchas, muchas cosas".

Esta combinación de motivos de ganancia corporativa y competencia internacional es por lo que el desarrollo de IA no se ralentizará, explicó Hinton.

"El motivo de ganancia está diciendo: Muéstrales lo que sea que los haga hacer clic, y lo que los hará hacer clic son cosas cada vez más extremas, confirmando sus sesgos existentes", dijo. "Así que tus sesgos se confirman todo el tiempo".

¿Cómo mataría la IA a los humanos? Hinton dijo que una IA superinteligente podría diseñar nuevas amenazas biológicas para eliminar a la raza humana.

"La forma obvia sería crear un virus desagradable: muy contagioso, muy letal y muy lento, para que todos lo tuvieran antes de darse cuenta", dijo. "Si la superinteligencia quisiera deshacerse de nosotros, probablemente elegiría algo biológico que no la afectara".

A pesar de las perspectivas sombrías, Hinton no está completamente sin esperanza.

"Simplemente no sabemos si podemos hacer que no quieran tomar el control y no quieran lastimarnos. No creo que esté claro que podamos, así que creo que podría ser desesperanzador", dijo Hinton. "Pero también creo que podríamos ser capaces, y sería algo loco si la gente se extinguiera porque no nos molestamos en intentarlo".

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.