Por Zeynep Tufekci, The New York Times.
Platón lamentó la invención del alfabeto, pues le preocupaba la amenaza que suponía el uso del texto para las artes tradicionales de retórica fundamentadas en la memoria. En sus “Diálogos”, en los que argumentó por medio de la voz de Thamus, el rey egipcio de los dioses, Platón afirmó que el uso de esta tecnología más moderna crearía un “olvido en las almas de los aprendices, porque no usarán sus recuerdos”, que impartiría “no la verdad, sino solo la apariencia de la verdad” y que quienes la adoptaran “parecerían omniscientes y en general no sabrán nada”, con “el espectáculo de la sabiduría sin la realidad”.
Si Platón viviera en la actualidad, ¿diría cosas parecidas sobre ChatGPT?
ChatGPT, un programa de inteligencia artificial conversacional que acaba de lanzar OpenAI, no es solo otra entrada en el ciclo de exageradas expectativas respecto a la inteligencia artificial. Es un avance significativo que puede producir artículos en respuesta a preguntas abiertas comparables a buenos ensayos de bachillerato.
Algunos de los aspectos más interesantes y problemáticos de ChatGPT serán más evidentes en los bachilleratos e incluso en las universidades.
La mayoría de las veces, no se asigna la redacción de ensayos porque el resultado tenga mucho valor —dejando de lado a los padres orgullosos que ponen las buenas calificaciones en el refrigerador—, sino porque el proceso enseña habilidades cruciales: investigar un tema, juzgar afirmaciones, sintetizar conocimientos y expresarlos con claridad, coherencia y persuasión. Estas habilidades serán todavía más importantes gracias a los avances en el campo de la inteligencia artificial.
Cuando le planteé una serie de preguntas a ChatGPT —sobre los desafíos éticos a los que se enfrentan los periodistas que trabajan con material hackeado, la necesidad de regular las criptomonedas, la posibilidad de un retroceso democrático en Estados Unidos—, las respuestas fueron convincentes, bien razonadas y claras. También es interactivo: pude pedir más detalles o solicitar cambios.
Sin embargo, en temas más delicados o conceptos más complicados, ChatGPT a veces daba respuestas muy plausibles que eran equivocadas a todas luces: algo sobre lo que sus creadores advierten en su cláusula de exención de responsabilidad.
A menos que ya sepas la respuesta o seas un experto en la materia, podrías ser el blanco de una estafa intelectual de alta calidad.
Como lo predijo Platón, te enfrentarías al “espectáculo de la sabiduría sin la realidad”.
Sin embargo, todo esto no significa que ChatGPT —o herramientas similares, porque no es la única en su tipo— no pueda ser una herramienta útil para la educación.
Las escuelas ya han tenido que lidiar con la riqueza de conocimiento del internet, junto con sus mentiras, afirmaciones engañosas y fábricas de ensayos.
Un modo de hacerlo ha sido cambiar el método de enseñanza. En vez de escuchar una plática en clase y luego ir a casa a investigar y escribir un ensayo, los estudiantes escuchan pláticas grabadas, investigan en casa y luego escriben ensayos en clase, con la supervisión e incluso la colaboración de sus compañeros y profesores. Dicho método se denomina “aula invertida”.
En las aulas invertidas, los alumnos no utilizarían ChatGPT para elaborar todo un ensayo. En cambio, lo utilizarían como una herramienta para generar bloques de ensayos examinados de forma crítica. Sería similar a cómo los alumnos de clases avanzadas de matemáticas tienen permitido utilizar calculadoras para resolver ecuaciones complejas sin repetir pasos tediosos que ya dominan.
Los maestros podrían asignar un tema complicado y permitir que los alumnos utilicen estas herramientas como parte de su investigación. Evaluar la veracidad y confiabilidad de estas notas generadas por inteligencia artificial y usarlas para crear un ensayo se haría en el salón de clase, con la orientación y las instrucciones de los profesores. El objetivo sería aumentar la calidad y la complejidad del argumento.
Para esto, se necesitaría que más maestros dieran una retroalimentación detallada. Si no se proporcionan los recursos suficientes equitativamente, la adaptación a la inteligencia artificial conversacional en las aulas invertidas podría exacerbar las desigualdades.
En las escuelas con menos recursos, algunos alumnos podrían terminar entregando ensayos producidos por inteligencia artificial sin obtener habilidades útiles ni saber en realidad qué escribieron. “No la verdad, sino solo la apariencia de la verdad”, como dijo Platón.
Es posible que algunas autoridades escolares traten esta cuestión tan solo como un problema de detección de plagios y expandan el uso de sistemas draconianos de vigilancia. Durante la pandemia, muchos estudiantes se vieron obligados a hacer exámenes o escribir ensayos bajo la mirada de un sistema automatizado de rastreo visual o en una computadora restringida para evitar las trampas.
En una infructuosa carrera armamentística contra la inteligencia artificial conversacional, los softwares automatizados contra el plagio pueden sobrecargarse y hacer que la escuela sea más punitiva para los estudiantes vigilados. Peor aún, es inevitable que estos sistemas produzcan acusaciones falsas, las cuales dañan la confianza e incluso pueden obstaculizar las posibilidades de estudiantes prometedores.
Los enfoques educativos que tratan a los alumnos como enemigos pueden enseñarles a odiar o a trastocar los controles. Esa no es la receta para un mejor ser humano.
Aunque algunos estudiantes se queden atrás, la inteligencia artificial avanzada creará una demanda de otras habilidades avanzadas. En 1971, el premio Nobel Herbert Simon señaló que, a medida que la información se volvía abrumadora, aumentaba el valor de nuestra atención. En sus palabras: “La abundancia de información crea pobreza de atención”. De manera similar, será muy valiosa la capacidad de distinguir la verdad del exceso de respuestas plausibles, pero profundamente incorrectas.
Stack Overflow, un sitio web muy utilizado en el que los programadores se preguntan entre sí sobre temas relacionados con código, ya prohibió las respuestas de ChatGPT porque muchas de ellas eran tonterías difíciles de detectar.
Entonces, ¿por qué confiar en esta herramienta?
Como mínimo, porque pronto transformará muchos trabajos. El enfoque correcto cuando nos enfrentamos a tecnologías transformadoras es descubrir cómo utilizarlas para mejorar la humanidad.
El progreso ha sido un objetivo de la educación pública al menos durante los últimos 150 años. Sin embargo, aunque en el pasado un diploma de bachillerato llevaba a un mejor trabajo, en las últimas décadas, los salarios de los graduados de bachillerato se han quedado muy por detrás de los de los graduados universitarios, lo cual fomenta la desigualdad.
Si la inteligencia artificial aumenta el valor de la educación para algunos mientras degrada la de otros, se romperá la promesa de progreso.
Platón se equivocó al pensar que la memoria en sí es un objetivo, en vez de un medio para que las personas tengan datos a su disposición y puedan crear mejores análisis y argumentos. Los griegos desarrollaron muchas técnicas para memorizar poemas como la “Odisea”, con sus más de 12.000 versos. ¿Por qué molestarse en forzar esto si se puede tener todo escrito en libros?
Así como Platón se equivocó al temerle a la palabra escrita y considerarla el enemigo, nosotros nos equivocaríamos al pensar que debemos resistirnos a un proceso que nos permita recabar información con mayor facilidad.
Al igual que las sociedades respondieron a los avances tecnológicos anteriores, como la mecanización, con la promulgación de una red de seguridad pública, una semana laboral más corta y un salario mínimo, también necesitaremos políticas con las que más personas puedan vivir con dignidad como un derecho básico, aunque se hayan sustituido sus habilidades. Con toda la riqueza inmensa que se genera ahora, podríamos soltarle aún más la rienda a nuestra imaginación, ampliando el tiempo libre y mejorando las condiciones laborales para más gente.
Lo que sigue no es solo lamentarse por las habilidades suplantadas, como hizo Platón, sino también reconocer que, a medida que se hagan esenciales las habilidades más complejas, nuestra sociedad deberá educar de manera equitativa a las personas para desarrollarlas. Y siempre se debe regresar a lo básico. Valorar a las personas como personas, no solo como conjuntos de habilidades.
Y eso no es algo que ChatGPT pueda decirnos cómo hacer.
c.2022 The New York Times Company.
HEP