Por Cade Metz de The New York Times en exclusiva para Periódico AM.
Estados Unidos.- El mes pasado, cientos de personas destacadas en el mundo de la inteligencia artificial firmaron una carta pública para advertir que la inteligencia artificial podría algún día destruir a la humanidad.
La declaración de una frase manifestó: “Mitigar el riesgo de extinción a causa de la inteligencia artificial debería ser una prioridad global junto a otros riesgos que impactan a toda la sociedad, tales como las pandemias y la guerra nuclear”.
La carta fue la más reciente de una serie de advertencias siniestras sobre la inteligencia artificial que han sido, de manera notable, escasas en detalles.
Los sistemas de inteligencia artificial actuales no pueden destruir a la humanidad. Algunos de ellos apenas pueden sumar y restar. Así que, ¿por qué están tan preocupadas las personas que más saben sobre inteligencia artificial?
El escenario atemorizante
Los profetas de la industria tecnológica afirman que, algún día, las compañías, los gobiernos o los investigadores independientes podrían desplegar sistemas de inteligencia artificial poderosos para manejar todo, desde negocios hasta la guerra. Esos sistemas podrían hacer cosas que no queremos que hagan.
Además, si los humanos intentaran interferir o apagarlos, podrían resistirse o incluso replicarse a sí mismos para poder seguir operando.
Yoshua Bengio, un profesor e investigador de inteligencia artificial en la Universidad de Montreal, comentó: “Los sistemas actuales no están ni cerca de representar un riesgo existencial.
Pero… ¿en uno, dos o cinco años? Hay mucha incertidumbre. Ese es el tema. No estamos seguros de que esto no pasará de un punto en el que las cosas se vuelvan catastróficas”.
Algunos de éstos sistemas apenas pueden sumar y restar, entonces, ¿por qué preocupa tanto a algunas personas que no exista control ni regulación alguna?
¿Hay señales de que la inteligencia artificial podría hacer esto?
No del todo. Sin embargo, los investigadores están transformando chatbots como ChatGPT en sistemas que pueden realizar acciones basadas en el texto que generan. El proyecto llamado AutoGPT es un ejemplo destacado.
Los sistemas como AutoGPT no funcionan bien en este momento. Suelen atorarse en bucles infinitos. Los investigadores le dieron a un sistema todos los recursos que necesitaba para replicarse. No pudo hacerlo.
Con el tiempo, esas limitaciones podrían resolverse.
¿Quiénes son las personas detrás de estas advertencias?
A principios de la década de los 2000, un escritor joven llamado Eliezer Yudkowsky empezó a advertir que la inteligencia artificial podría destruir a la humanidad. Sus publicaciones en línea crearon una comunidad de creyentes.
Conocidos como racionalistas o altruistas efectivos, esta comunidad amasó una enorme influencia en el ámbito académico, los grupos de expertos gubernamentales y la industria tecnológica.
Las advertencias recientes también provienen de pioneros de la investigación y líderes de la industria como Elon Musk, quien ha advertido desde hace mucho tiempo sobre los riesgos.
La carta más reciente la firmaron Sam Altman, director ejecutivo de OpenAI, y Demis Hassabis, quien ayudó a fundar DeepMind y ahora supervisa un nuevo laboratorio de inteligencia artificial que combina a los mejores investigadores de DeepMind y Google.
TE PUEDE INTERESAR:
Niños murieron en la carretera: Accidente deja tres muertos y cinco lesionados
El cáncer no la venció pero sí la balas: Asesinan a abuelita y lesionan a su nieta
¿Disney prohíbe el uso de pronombres él o ella y hombres pueden vestirse de mujer en sus parques?
FRG