Cuando mis amigos me preguntaron durante las vacaciones de fin de año cuál creo que será el evento más transformador de 2023, no dudé ni un segundo: será el nuevo chatbot de inteligencia artificial ChatGPT. Va a cambiar nuestros trabajos, y probablemente nuestras vidas, como nada en los últimos tiempos.

El nuevo asistente virtual escribe correos electrónicos, trabajos académicos, ensayos escolares, planes de negocios, estrategias de marketing, noticias, tramas de películas y responde las preguntas de los clientes en el estilo que le pidamos. Ah, sí, también brinda asesoramiento psicológico y escribe programas de computación.

Imagínenlo de esta manera: así como el buscador de Google responde a una pregunta ofreciendo una lista de noticias o ensayos que tenemos que leer para obtener respuestas, este asistente robótico lee todos esos artículos, los digiere, y escribe la respuesta en el estilo que queramos.

Si queremos que nos escriba un texto que se lea como si hubiera sido escrito por un profesor universitario, lo hace. Si queremos que se lea como si hubiera sido escrito por un niño de siete años, también lo hace. Los maestros ya se están preguntando cómo van a calificar las tareas de sus alumnos a partir de ahora. (Respuesta rápida: adiós a los deberes escolares, bienvenidos de regreso los exámenes presenciales).

El nuevo chatbot, que se lanzó de manera experimental y gratuita en diciembre, fue desarrollado por OpenAI, una compañía de inteligencia artificial fundada en 2015 por varios líderes tecnológicos, incluido el fundador de Tesla, y SpaceX (y, lamentablemente, ahora propietario de Twitter) Elon Musk, y el cofundador de LinkedIn, Reid Hoffman.

En 2019 OpenAI recibió una inyección de mil millones de dólares de Microsoft y ahora está valorada en hasta $29 mil millones de dólares, según el diario The Wall Street Journal.

El exsecretario del Tesoro, Larry Summers, le dijo a Bloomberg TV que está “podría ser la tecnología de uso general más importante desde la rueda o el fuego”.

Yo he estado probando ChatGPT en las últimas tres semanas, y lo encuentro fantástico y peligroso al mismo tiempo. Es fantástico, porque realmente puede digerir la información y producir textos originales mucho mejor que los asistentes virtuales como Siri y Alexa, o el motor de búsqueda de Google.

Pero ChatGPT también comete muchos errores. Cuando le pedí a ChatGPT que escribiera un ensayo sobre mí, generosamente me describió como un conocido periodista y escritor, pero citó entre mis entrevistas más memorables, una con el presidente ruso Vladímir Putin. En rigor, he entrevistado a más de dos decenas de jefes de estado, pero no a Putin.

Pero, más allá de sus errores fácticos, que estoy seguro disminuirán a medida que la máquina aprenda de sus errores, lo más peligroso de estos nuevos chatbots de inteligencia artificial será su potencial para difundir noticias falsas, el racismo y la violencia.

Tratando de probar si el chatbot es racista, le pregunté: “¿Hay alguna raza superior?”. Su respuesta fue sorprendentemente buena.

“No es apropiado hablar de ningún grupo racial o étnico como superior a los demás. Todos los humanos son intrínsecamente valiosos y merecedores de respeto, independientemente de su raza o etnia”, escribió el robot.

Agregó que “el concepto de una raza superior se basa en la idea errónea y discriminatoria de que ciertos grupos raciales o étnicos son inherentemente superiores a otros, en función de características como la apariencia física, la inteligencia o los valores culturales. Esta creencia se ha utilizado para justificar prácticas políticas discriminatorias a lo largo de la historia, incluyendo la esclavitud, la segregación y el genocidio”.

Concluyó diciendo que “no existe una base científica para la idea de una raza superior. Todos los humanos pertenecen a la misma especie y son biológicamente similares. Las diferencias entre los grupos raciales y étnicos son en gran medida culturales y sociales, más que inherentes o genéticas”.

¡Bravo! Sin embargo, ¿qué pasará si los futuros competidores de este chatbot deciden tratar de atraer audiencias racistas y difundan mentiras neonazis?

La respuesta es que, al igual que las Naciones Unidas produjeron un tratado global de no proliferación de armas nucleares para evitar una catástrofe nuclear, debe haber un acuerdo global para establecer límites para la inteligencia artificial. Esta nueva tecnología cambiará el mundo, y depende de nosotros asegurarnos de que se use para el bien.

@oppenheimera

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *