El científico informático Geoffrey Hinton, conocido como el "padrino de la inteligencia artificial", en la sede de Google en Mountain View, California en 2015

San Francisco, California.- Geoffrey Hinton, un galardonado científico informático conocido como “el padrino de la inteligencia artificial”, está teniendo serias reservas sobre el fruto de sus labores.

Hinton ayudó crear tecnologías de inteligencia artificial que han sido determinantes para una nueva generación de chatbots como ChatGPT. Pero en entrevistas recientes, reveló que renunció a un alto cargo en Google específicamente para compartir sus inquietudes de que el desarrollo irrestricto de la inteligencia artificial plantea serios riesgos para la humanidad.

“Repentinamente he cambiado mis puntos de vista sobre si estas cosas serán más inteligentes que nosotros”, declaró en entrevista con MIT Technology Review. “Creo que están ahora muy cerca de serlo y que en el futuro serán mucho más inteligentes que nosotros… ¿cómo vamos a sobrevivir a eso?”.

Hinton no es el único que tiene esas preocupaciones. Poco después de que la firma OpenAI lanzó en marzo su nueva versión de chatbot GPT-4, más de 1.000 científicos firmaron una carta pidiendo una pausa de seis meses en el desarrollo de la inteligencia artificial porque plantea “profundos riesgos a la sociedad y a la humanidad”.

Aquí un vistazo a las principales inquietudes de Hinton:

LA INTELIGENCIA DEPENDE DE LAS NEURONAS

Nuestros cerebros son capaces de resolver ecuaciones matemáticas, conducir automóviles y seguir la trama de una serie de televisión gracias a su talento inherente de almacenar y organizar información y producir soluciones para problemas espinosos. Lo que hace eso posible son las aproximadamente 86.000 millones de neuronas que tenemos en el cráneo y, lo que es más importante, las 100 billones de conexiones que esas neuronas forjan entre sí.

En comparación, la tecnología que fundamenta a ChatGPT cuenta con entre 500.000 y un billón de conexiones, dijo Hinton en la entrevista. Aunque ello parece menos que la capacidad del cerebro humano, Hinton señala que GPT-4, el modelo de inteligencia artificial más reciente de OpenAI, sabe “cientos de veces más” de lo que sabe un ser humano. Es posible, sugiere, que tiene “un algoritmo de aprendizaje mucho mejor” y por lo tanto es más eficiente en tareas cognitivas.

PROBABLEMENTE YA ES MÁS INTELIGENTE QUE NOSOTROS

Los expertos desde hace tiempo han sostenido que las redes de neuronas artificiales demoran mucho más en absorber y aplicar nuevos conocimientos que las personas, ya que para entrenarlas se requiere gran cantidad de energía e información. Eso ya no es así, argumenta Hinton, destacando que sistemas como GPT-4 son capaces de aprender sumamente rápido una vez entrenados por los investigadores. Eso no es muy distinto a la manera en que, digamos, un físico profesional es capaz de analizar resultados de un experimento mucho más rápido que un estudiante de secundaria común.

Ello lleva a Hinton a concluir que los sistemas de inteligencia artificial probablemente ya son más inteligentes que nosotros. No solo pueden captar cosas más rápido, sino que pueden compartir la información entre ellos casi instantáneamente.

“Es un tipo de inteligencia totalmente distinta”, dice Hinton, “es un tipo de inteligencia nueva y mejor”.

EL PODER DE TRASTOCAR ELECCIONES E INICIAR GUERRAS

 ¿Qué podrían hacer sistemas de inteligencia artificial más inteligentes que los humanos? Una posibilidad espeluznante es que individuos, grupos o Estados mal intencionados los usen para alcanzar sus propósitos. Hinton está particularmente preocupado por la posibilidad de que estas herramientas sean usadas para manipular resultados electorales o iniciar guerras.

La desinformación electoral propagada por chatbots, por ejemplo, podría ser la nueva versión de la desinformación electoral que anteriormente se propagaba por Facebook u otras redes sociales.

Y eso podría ser apenas el comienzo. “No duden ni por un instante que Putin estaría dispuesto a usar robots inteligentes para matar ucranianos”, dijo Hinton en el artículo. “Él no vacilaría”.

UNA FALTA DE SOLUCIONES 

Lo que nadie sabe es cómo se podría evitar que una potencia como Rusia use la inteligencia artificial para subyugar a sus vecinos o incluso a sus propios ciudadanos. Hinton sugiere que se podría necesitar un acuerdo similar a la Convención Internacional contra las Armas Químicas de 1997, para elaborar normas que rijan el uso de la inteligencia artificial.

Sin embargo, cabe destacar que esa convención no impidió lo que, según investigadores, fueron probablemente ataques del gobierno sirio con cloro y con el neurotóxico sarín contra civiles en 2017 y 2018 durante la guerra civil en ese país.

HLL

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *