Por Oliver Whang de The New York Times en exclusiva para AM Guanajuato
Hod Lipson, ingeniero mecánico al frente del laboratorio de máquinas creativas en la Universidad de Columbia, ha dedicado la mayor parte de su carrera a un área que algunas personas de su industria evitan y a la que solo se refieren como “la palabra que empieza con ‘c’”.
En una soleada mañana de octubre pasado, el especialista en sistemas automatizados nacido en Israel, sentado detrás de una mesa en su laboratorio, habló sobre su área de investigación. “Este tema era tabú”, dijo, con una sonrisa que dejó entrever una ligera separación entre sus dientes frontales. “Casi teníamos prohibido hablar del tema (me decían: ‘No pronuncies la palabra que empieza con “c” o no te van a dar un contrato permanente’), así que en un principio tuve que disfrazarlo, aparentar que era otra cosa”.
Esa era la situación a principios de la década de los 2000, cuando Lipson era profesor asistente en la Universidad Cornell. Se dedicaba a crear máquinas capaces de distinguir si había algo mal con su propio hardware y proceder a cambiar su comportamiento con el propósito de compensar esa deficiencia sin la intervención de un programador.
Este tipo de adaptabilidad integrada, en opinión de Lipson, se volvería más importante a medida que aumentara nuestra dependencia de las máquinas. Ya se utilizaban robots para procedimientos quirúrgicos, para la fabricación de alimentos y para el transporte; las aplicaciones para máquinas parecían casi infinitas, por lo que cualquier error en su funcionamiento, conforme más integradas estuvieran en nuestra vida, podría desatar un desastre. “Literalmente, vamos a poner nuestra vida en manos de un robot”, afirmó. “Necesitamos que estas máquinas sean resilientes”.
Una manera de lograrlo estaba inspirada en la naturaleza. Los animales, en particular los seres humanos, se adaptan bien a los cambios. Esta habilidad quizá se deba a millones de años de evolución, pues la resiliencia en respuesta a las lesiones y a ambientes cambiantes por lo regular aumenta las probabilidades de que un animal sobreviva y se reproduzca. Lipson quería explorar la posibilidad de replicar este tipo de selección natural en su código y crear una forma generalizable de inteligencia capaz de explorar su cuerpo y sus funciones, independientemente de la apariencia de ese cuerpo y de la función de que se tratara.
Este tipo de inteligencia tendría que ser flexible y rápida, además de responder a situaciones apremiantes con la misma habilidad que los seres humanos… o incluso mejor. Cuando el aprendizaje automático comenzó a mejorar sus capacidades, esta meta empezó a parecer alcanzable. Lipson obtuvo su contrato permanente y ya había mejorado su reputación. Así que, desde hace dos años, ha expresado cuál es la motivación fundamental de todo su trabajo. Ahora ya dice en voz alta la palabra que empieza con una “c”: quiere crear robots conscientes.
—
El laboratorio de máquinas creativas, ubicado en el primer piso del edificio Seeley W. Mudd en la Universidad de Columbia, está organizado con cubos. El salón en sí es un cubo, dividido en estaciones de trabajo en forma de cubos y cubiertas con cajas en cubos. Dentro de este orden, hay robots y partes de robots esparcidos.
La primera dificultad para el estudio de la palabra innombrable que empieza con “c” es que no existe un consenso en torno a la definición precisa de la palabra. Lo mismo ocurre con muchos conceptos vagos, como la libertad, el significado, el amor y la existencia, pero se trata de un campo que por lo regular está reservado para los filósofos, no para los ingenieros. Algunos investigadores han intentado establecer una taxonomía de la conciencia y explicarla a partir de funciones cerebrales o algunas sustancias más metafísicas, pero esos proyectos han ofrecido conclusiones escasas y generado más preguntas. Incluso una de las descripciones más generalizadas de la llamada conciencia fenomenal (que un organismo es consciente “si hay algo que es como ser ese organismo”, según la definición del filósofo Thomas Nagel) parece poco clara.
Sumergirse directamente en estas aguas turbias quizá les parezca infructuoso a los científicos dedicados a la robótica y la computación. Pero según explicó Antonio Chella, especialista en robótica de la Universidad de Palermo en Italia, si no se incluye la conciencia, “se siente que falta algo” en la función de las máquinas inteligentes.
Intentar producir el vago concepto expresado con la palabra que empieza con “c” mediante entradas y funciones maleables es una tarea difícil, quizá imposible. La mayoría de los ingenieros y expertos en robótica tienden a ignorar la filosofía y crear sus propias definiciones funcionales. En opinión de Thomas Sheridan, profesor emérito de Ingeniería Mecánica en el Instituto Tecnológico de Massachusetts, la conciencia podría reducirse a un proceso específico; en ese caso, mientras más sepamos del cerebro, menos difuso parecerá el concepto.
(Filósofos como Daniel Dennett y Patricia Churchland, además del neurocientífico Michael Graziano, entre otros, han propuesto varias teorías funcionales de la conciencia).
Lipson y los integrantes del laboratorio de máquinas creativas pertenecen a esta tradición. El grupo optó por un criterio práctico de conciencia: la capacidad de imaginarte a ti mismo en el futuro.
—
La ventaja de adoptar una teoría funcional de conciencia es que permite el progreso tecnológico.
Uno de los primeros robots con conciencia propia que produjo el laboratorio de máquinas creativas tenía cuatro patas articuladas y un cuerpo negro con sensores colocados en distintos puntos. El robot, a partir de sus movimientos y su percepción de los cambios en la información registrada por sus sensores, creó una simulación de sí mismo con un muñeco de palitos. Después de realizar más movimientos, el robot utilizó un algoritmo de aprendizaje automático para mejorar el parecido del modelo de sí mismo con su cuerpo real. El robot utilizó su autoimagen para descubrir, en simulación, un método para desplazarse hacia adelante. A continuación, aplicó este método a su cuerpo… ¡Había aprendido a caminar sin que nadie le enseñara a caminar!
Se trató de un importante avance, comentó Boyuan Chen, experto en robótica de la Universidad Duke que trabajó en el laboratorio de máquinas creativas. “En mi experiencia anterior, cuando entrenabas a un robot para que realizara una función nueva, siempre veías a un ser humano al lado”, afirmó.
Hace poco, Chen y Lipson publicaron en la revista Science Robotics un artículo sobre su máquina más reciente con conciencia de sí misma, un brazo sencillo con dos articulaciones fijado a una mesa. El robot utilizó cámaras instaladas a su alrededor para observar sus movimientos. En un principio, no sabía cuál era su ubicación en el espacio, pero, después de un par de horas y con ayuda de un potente algoritmo de aprendizaje profundo y un modelo de probabilidad, logró identificarse en el mundo.
El riesgo de adoptar una teoría de conciencia específica es quedar expuestos a críticas. Nadie pone en duda que la conciencia de sí mismo es importante, pero ¿acaso no hay otras características clave de la conciencia? ¿Es posible decir que algo es consciente de sí mismo si no se siente consciente para nosotros?
Chella cree que la conciencia no puede existir sin lenguaje, por lo que se ha dedicado a desarrollar robots capaces de formar monólogos internos, razonar consigo mismos y reflexionar sobre lo que ven a su alrededor. Uno de sus robots hace poco logró reconocerse en un espejo, con lo cual superó quizá la prueba más famosa para la conciencia de sí mismo aplicada a los animales.
Joshua Bongard, experto en robótica de la Universidad de Vermont y antiguo miembro del laboratorio de máquinas creativas, cree que la conciencia no solo consta de cognición y actividad mental, sino que tiene un aspecto corporal esencial.
Este verano pasado, aproximadamente al mismo tiempo que Lipson y Chen dieron a conocer su robot más reciente, un ingeniero de Google anunció que el chatbot recién mejorado de la empresa, llamado LaMDA, tenía conciencia y merecía que lo trataran como a un niño pequeño. La respuesta a esta afirmación fue de escepticismo, en especial porque, como señaló Lipson, lo que hacía el chatbot era procesar “un código escrito para cumplir una tarea”. No había ninguna estructura subyacente de conciencia, opinaron otros investigadores, solo la ilusión de conciencia. Lipson añadió: “El robot no tenía conciencia de sí mismo. Es un poco como hacer trampa”.
c.2023 The New York Times Company
HLL