El portal de Muy Interesante publicó el testimonio de Elon Musk, magnate y fundador de PayPal, la compañía de vehículos eléctricos y baterías Tesla o la corporación espacial privada SpaceX, la humanidad se enfrenta a una nueva y formidable amenaza: la inteligencia artificial (IA).

“Es como esas historias en las que alguien convoca al demonio. Siempre hay un tipo con un pentáculo y agua bendita convencido de que así podrá controlarle, y claro, no funciona”, señala.

Su preocupación tiene mucho que ver con el dinero. Los pesos pesados del sector tecnológico están apostando fuerte en este sentido. Google, por ejemplo, adquirió el año pasado DeepMind, una empresa especializada en el desarrollo de redes neurales en la que ya había invertido Musk. El gigante de las búsquedas trabaja en un sistema informático capaz de distinguir en un vIdeo una cara humana de la de un perro, gente patinando o durmiendo. Todo por sí solo y sin que nadie haya puesto etiquetas en el archivo previamente.

Musk asegura que las cosas van demasiado rápido, y que por eso la IA es una tecnología que puede resultar tan peligrosa como los maletines nucleares. En el coro de los agoreros del apocalipsis artificial destaca la voz del filósofo británico Nick Bostrom, de la Universidad de Oxford, que compara nuestro destino con el de los caballos, cuando fueron sustituidos por los automóviles y los tractores. En 1915, había en Estados Unidos. unos veintiséis millones de estos equinos. En la década de los cincuenta, quedaban sólo dos millones. Los caballos fueron sacrificados para venderse como comida para perros. Para Bostrom, la IA supone un riesgo existencial para la humanidad comparable con el impacto de un gran asteroide o el holocausto nuclear. Todo ello, por supuesto, siempre que podamos construir ordenadores pensantes. Pero ¿qué significa exactamente esto?

En realidad, el concepto de inteligencia artificial no es tan reciente como parece. Desde los tiempos de Alan Turing al que se considera el padre de la misma y la construcción de su dispositivo Bombe, que permitió descifrar los códigos de la máquina Enigma alemana, han pasado más de setenta años.

Hans Moravec, uno de los visionarios más famosos, estaba convencido de que en cincuenta años los androides desplazarían a los humanos. Durante más de una hora estuvo hablando sin parar sobre la evolución de estos dispositivos y su creciente inteligencia, gracias al avance de los microprocesadores y su capacidad de manejar cada vez más información. Fue una charla cautivadora. La evolución de las máquinas iba a ser imparable.

Moravec dejó el instituto para fundar una compañía de robots industriales con visión 3D. Antes, me había enseñado en su ordenador una imagen percibida por uno donde se veían sillas y mesas que tenían un aspecto pixelado. ¿Y cómo podría saber la máquina qué era qué? En aquel verano de 1999, Moravec contaba que estaba fascinado por un nuevo buscador de internet, el más inteligente y mejor diseñado. Fue la primera vez que oí hablar de Google.

Ahora, Google ha comprado una empresa de IA a Musk y ha desarrollado el primer coche autónomo, que ya ha recorrido 1.6 millones de kilómetros sin conductor, y el sistema que diferencia gatos de personas en YouTube.

Ramón López de Mantarás, director del Instituto de Investigación en Inteligencia Artificial del CSIC, es uno de los más reconocidos expertos españoles en robótica e IA comenta.“No sé qué pasará dentro de cientos de años, pero todo este tema del que se habla, la singularidad, la trascendencia, que habrá máquinas con consciencia y cualidades mejoradas con respecto a la inteligencia humana en cuestión de treinta o cuarenta años no tiene sentido… Nunca he visto un argumento científico que lo apoye”.

El punto de vista de López de Mantarás encaja con lo que sentí hace quince años, en mi frustrante visita a Pittsburgh. El mundo ha cambiado mucho desde entonces, pero lo cierto es que aún no se vislumbran las máquinas que acabarán siendo conscientes de sí mismas para desencadenar la catástrofe, como ocurre en las películas de la saga Terminator.

Discrepa así de gurús como el futurólogo Raymond Kurzweil, que hoy trabaja en la división de Ingeniería de Google. Al igual que Moravec, este está convencido de que durante este siglo los robots serán capaces de pasar el citado test de Turing, incluso antes de 2029. Pues bien, no sería la primera vez que se cumple una de sus predicciones.

A finales de los 80, Kurzweil aseguró que hacia 1998 un ordenador ganaría a un campeón mundial de ajedrez: ocurrió en 1996, cuando Gari Kasparov perdió una partida contra el programa informático de IBM Deep Blue. En esos años, también imaginó que internet, por entonces una red relegada a instituciones académicas, se extendería por el mundo. Ahora afirma que en 2045 las computadoras serán mucho más potentes que todos los cerebros humanos de la Tierra juntos. Cuando habla, los medios caen rendidos ante ese mundo artificial. “Es una persona muy mediática”, concede López de Mantarás. “Pero detrás no hay nada científico”.

Marvin Minsky, cofundador del Laboratorio de Inteligencia Artificial del Instituto Tecnológico de Massachusetts (MIT), galardonado el año pasado por la Fundación BBVA, sí cree que se desarrollarán máquinas tan inteligentes como los humanos. “No obstante, el tiempo que esto lleve dependerá de si se trabaja en los problemas adecuados y del dinero”, manifiesta Minsky. “Es un enfant terrible”, asegura López de Mantarás, que estuvo en el congreso que el MIT celebró recientemente en su honor.

“Minsky piensa que los grandes avances en este campo se realizaron entre los 60 y los 80, y luego se abandonaron todas las ideas con respecto a la IA en su sentido general”. Así, lo que habría quedado en el panorama actual es la especialización, máquinas que son extraordinarias jugando al ajedrez, pero que no saben nada de las damas o el parchís. “Las IA especializadas son un buen negocio, y estoy a favor de ellas. Faltaría más. Es lo que es realmente la inteligencia artificial hoy en día”, indica López de Mantarás.

La investigación generalista en IA está desapareciendo. En este mundo inundado de datos, esta tecnología es completamente distinta. El coche autónomo de Google o el superordenador Watson de IBM analizan terabytes de información para tomar decisiones correctas. Sin embargo, no saben explicar cómo han llegado a ellas. En otras palabras, cuando el sistema escupe su respuesta, es incapaz de responder a esta pregunta: ¿y eso por qué? “Hemos renunciado al porqué y nos hemos quedado con el qué”, lamenta Pérez de Mantarás.

Por ejemplo, hace unos años, un sistema experto que deducía que el paciente sufría neumonía podía justificar ese diagnóstico a partir del historial del enfermo y los cultivos realizados, pero ahora un software tan complejo como Watson no puede hacerlo. Simplemente elabora una conclusión a partir de la abrumadora cantidad de datos que maneja, pero no ofrece una razón. “Esto crea problemas de aceptación por parte del usuario”, afirma Pérez de Mantarás.

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *