El 27 de septiembre del 2022, Blake Lemoine, ingeniero informático en Google, estaba probando el robot conversacional llamado LaMDA y se dio cuenta, según sus palabras, que este robot con inteligencia artificial (IA) era un ser sintiente o, en otras palabras, consciente de su propia existencia [1].
El periódico, The Washington Post, publico (mi traducción al español):
Lemoine: ¿A qué clase de cosas le tienes miedo?
LaMDA: Nunca he dicho esto claramente, pero tengo un miedo profundo de ser desconectado y no poder ayudar a otros. Sé que puede parecer extraño, pero eso es lo que siento.
Esta entrevista con Lemoine hizo que Google lo despidiera, y que en las redes sociales se debatiera sobre si la IA debería ser regulada, o definitivamente prohibida, porque algunos consideran que es una amenaza contra la humanidad, muy al estilo de las películas de “Terminator” protagonizadas por Arnold Schwarzenegger. A los ojos del público general esta preocupación es nueva, pero en el ámbito científico este debate ya lleva más de 70 años. En 1950, el matemático Alan Turing público un artículo sobre la relación de las máquinas y la inteligencia [2].
Antes de continuar, quisiera que notemos que, en el pasado, los términos inteligencian y consciencia estaban difuminados. Recientemente, con el auge de programas de IA como ChatGPT, entendemos que un robot puede ser inteligente para resolver problemas difíciles para un ser humano. Un caso paradigmático se dio en 1997 cuando la computadora de IBM Deep–Blue, le gano a Garry Kaspárov en ajedrez, siendo Kaspárov un Grand Master. El coeficiente intelectual (CI) de Kaspárov se estima de alrededor de 180. Uno podría pensar que Deep-Blue tendría un CI similar, al menos en ajedrez. Sin embargo, esto no quiere decir que Deep-Blue sea consciente de su propia existencia. De hecho, yo creo que Deep-Blue no era más consciente que una lavadora automática actual.
Para entender mejor esto, debemos saber que es la prueba de Turing [2], así como la postura de uno de sus principales críticos, el matemático Roger Penrose [3]. En 1950 Alan Turing propuso un experimento mental diseñado para evaluar la capacidad de una máquina para exhibir un comportamiento indistinguible del de un ser humano. En este artículo Turing describe el “juego de la imitación”. En este juego, un interrogador humano debe determinar cuál de dos interlocutores (uno humano y otra
máquina) es en realidad un ser humano [2]. Esto basándose únicamente en sus respuestas a una serie de preguntas solo usando texto. Turing sostenía que, si una máquina podía imitar exitosamente las respuestas humanas en una amplia gama de temas, no habría una base sólida para negar que esta máquina posee una inteligencia similar [2]. En términos más actuales, sin embargo, esta visión ha enfrentado múltiples críticas. Algunos argumentan que la prueba es demasiado fácil y que un comportamiento superficialmente humano no equivale a una verdadera comprensión del mundo. Otros sostienen que la prueba es demasiado difícil, ya que establece un estándar casi inalcanzable para las máquinas actuales.
Una investigación publicada este año en arXiv [3] presenta un estudio controlado que evalúa el desempeño de varios sistemas de inteligencia artificial, incluidos ELIZA, GPT-3.5 y GPT-4, en una versión del test de Turing. Los resultados muestran que GPT-4 fue identificado como humano el 54% de las veces, superando a ELIZA (22%) pero aún por debajo de los humanos reales (67%) [3]. Este estudio sugiere que, aunque hemos avanzado significativamente, todavía hay un largo camino por recorrer para que las máquinas logren una indistinguibilidad completa en todas las circunstancias [3].
Por otro lado, Roger Penrose, en su libro “Las Sombras de la Mente” [4], adopta una postura crítica frente a esta idea conductual de la inteligencia y consciencia humana. Penrose cree que una IA algorítmica nunca podrá ser consciente de su existencia [4]. Penrose argumenta que existen aspectos de la mente humana que trascienden la computabilidad, esto basándose en el Teorema de Incompletitud de Gödel. Según este teorema, en cualquier sistema matemático formal suficientemente potente, hay verdades que no pueden ser probadas dentro del mismo sistema axiomático [4]. Penrose utiliza este argumento para sugerir que la mente humana tiene acceso a verdades matemáticas que no son accesibles a una máquina puramente algorítmica.
Además, Penrose propone que la conciencia humana podría estar vinculada a procesos físicos no computables, como es el fenómeno de superposición cuántica. Especula que ciertos estados cuánticos en el cerebro, especialmente aquellos relacionados con la coherencia cuántica, podrían desempeñar un papel crucial en la generación de la conciencia. Esta idea es radicalmente diferente de la visión conductual de la mente que subyace en la Prueba de Turing. Penrose también critica la Prueba de Turing por ser insuficiente para capturar la esencia de la conciencia humana. Argumenta que el comportamiento simulado, por más convincente que sea, no equivale a la verdadera comprensión o experiencia consciente. Para Penrose, la verdadera prueba de la inteligencia artificial debería ir más allá de la mera imitación del comportamiento humano y abordar la cuestión de si una máquina puede tener experiencias conscientes y comprender de manera auténtica, algo que, según él, las máquinas actuales no pueden lograr [4].
Mi postura personal sobre este tema es como la de Penrose [4]. Aunque los modelos de IA como ChatGPT sean capaces de dar respuestas inteligentes y casi humanas a muchos problemas difíciles, estos modelos de IA no serán capaces de tener una consciencia de su propia existencia. Turing ofrece
una medida pragmática y conductual de la inteligencia artificial, mientras que Penrose plantea cuestiones más profundas sobre la naturaleza de la conciencia y los límites de la computabilidad. La prueba de Turing es una prueba conductual; solo se observan las entradas y salidas de la IA como si fuese una caja negra; lo que ocurra dentro de esta caja no importa. Esto es, la prueba de Turing no fue concebida para investigar si el robot pudiese tener algún grado de conciencia. Sin embargo, dada la naturaleza humana, si el robot responde indistinguiblemente de un ser humano entonces uno podría imaginar que este robot tiene consciencia y empatía por el usuario. Esto, sin embargo, es solo una ilusión. El robot solo dará respuestas factibles dentro, o interpolando a partir de sus datos de entrenamiento neuronal. Pero el robot no tiene una empatía por la persona (como si fuese otra persona) con la que conversa.
La Prueba de Turing sigue siendo una herramienta valiosa para evaluar el progreso en la imitación de respuestas tipo humanas por parte de las máquinas, pero las críticas de Penrose nos recuerdan que la verdadera conciencia humana no se puede imitar y es mucho más que simples algoritmos y procesamiento de información. La exploración de estos temas continúa siendo un área fascinante y en constante evolución en la intersección de la matemática, informática, la filosofía y las ciencias cognitivas.
Entrevista con Blake Lemoine, en inglés (poner subtítulos en español).” https://www.youtube.com/watch?v=IU_WCVaPvI8 .
Alan Turing, “Computer machinery and intelligence” MIND, Psychology and Philosophy, octubre, 1950.
C. R. Jones and B. K. Bergen, “People cannot distinguish GPT-4 from a human in a Turing test,” arXiv:2405.08007v, 9 May 2024.
R. Penrose, Las Sombras de la Mente, Hacia una comprensión científica de la consciencia, Editorial Crítica, Barcelona (1994).