Por: Brian X. Chen / The New York Times en exclusiva para AM

Estados Unidos.- Las últimas semanas se han sentido como una fase de luna de miel de nuestra relación con herramientas que operan con inteligencia artificial.

Muchos de nosotros hemos jugueteado con ChatGPT, un bot de conversación que puede generar respuestas con un lenguaje sorprendentemente natural, realizar tareas como escribir historias sobre nuestros animales de compañía, redactar propuestas de negocios y codificar programas de software.

Al mismo tiempo, muchos han subido selfies a Lensa AI, una aplicación que usa algoritmos para transformar fotografías ordinarias en renderizaciones artísticas. Ambas se lanzaron hace una semana.

Como cuando surgieron los teléfonos inteligentes y las redes sociales, la inteligencia artificial (IA) se siente divertida y emocionante. Aun así (y siento ser un aguafiestas), como siempre es el caso con la tecnología nueva, habrá inconvenientes, lecciones dolorosas y consecuencias no deseadas.

Las personas que están experimentando con ChatGPT se dieron cuenta con rapidez de que podían usar la herramienta para ganar concursos de codificación. Los maestros ya descubrieron que sus estudiantes usan al bot para plagiar ensayos. Además, algunas mujeres que han subido sus fotografías a Lensa recibieron renderizaciones que se sentían sexualizadas y las hacían ver más delgadas, más jóvenes o incluso en las que aparecían desnudas.

Hemos alcanzado un punto de inflexión con la inteligencia artificial y ahora es buen momento para hacer una pausa y evaluar: ¿cómo podemos usar estas herramientas de manera ética y segura?

Durante años, asistentes virtuales como Siri y Alexa, que también usan la IA, fueron blanco de bromas porque no eran particularmente útiles. Sin embargo, la IA moderna es tan suficientemente buena ahora que mucha gente está considerando con seriedad cómo incorporar las herramientas en su vida cotidiana y a sus tareas.

Brian Christian, un informático y el autor de “The Alignment Problem”, un libro sobre las inquietudes éticas en torno a los sistemas de IA, opinó: “Estamos en el comienzo de una transformación más general de la sociedad. Habrá una pregunta más grande para los negocios, pero en el plazo inmediato, para el sistema educativo, ¿cuál es el futuro de la tarea?”.

Con reflexión y consideración cuidadosa, podemos aprovechar la inteligencia de esas herramientas sin causar daño a nosotros mismos o a otras personas.

Entendiendo límites y consecuencias

Primero, es importante comprender cómo funciona la tecnología para saber con exactitud qué se está haciendo con ella. ChatGPT es, en esencia, una versión más poderosa y elegante del sistema de texto predictivo en nuestros celulares, el cual sugiere palabras para completar una frase cuando estamos tecleando al usar lo que ha aprendido de cantidades vastas de datos obtenidos de la web. Además, no puede comprobar si lo que está diciendo es verdad.

Christian afirma que si usas un bot conversacional para codificar un programa, este ve cómo el código se compiló en el pasado. Debido a que el código se actualiza de manera constante para abordar vulnerabilidades de seguridad, el código escrito con un bot de conversación podría tener fallas o ser inseguro.

De igual manera, si estás utilizando ChatGPT para escribir un ensayo sobre un libro clásico, es posible que el bot construirá argumentos que parezcan plausibles. Sin embargo, si otras personas publicaron en la web un análisis con errores del libro, eso también podría aparecer en tu ensayo. Si tu ensayo se publicó en línea, estarías contribuyendo a la difusión de desinformación.

Melanie Mitchell, una investigadora de IA en el Instituto Santa Fe, comentó: “Pueden engañarnos al hacernos creer que entienden más de lo que lo hacen y eso puede causar problemas”.

OpenAI, la compañía detrás de ChatGPT, se negó a comentar para esta columna.

Mitchell indicó que, de forma similar, las herramientas de edición de imágenes que funcionan con inteligencia artificial como Lensa entrenan sus algoritmos con imágenes existentes en la web. Por lo tanto, si las mujeres son presentadas en contextos más sexualizados, las máquinas recrearán ese sesgo.

Prisma Labs, la compañía que desarrolló Lensa, aseguró que no aplicó sesgos de manera consciente, solo utilizó lo que estaba disponible. Anna Green, una vocera de Prisma, declaró: “En esencia, la IA es un reflejo de nuestra sociedad”.

Una preocupación relacionada es que si usas la herramienta para generar un avatar caricaturizado, basará la imagen en los estilos de obras publicadas de artistas sin brindarles una compensación o darles el crédito.

 

Conoce qué estás dando a cambio

Una lección que hemos aprendido una y otra vez es que cuando utilizamos una herramienta en línea, tenemos que entregar algo de datos y las herramientas de IA no son la excepción.

Cuando cuestionamos si era seguro compartir textos delicados con ChatGPT, el bot conversacional respondió que no almacenaba tu información, pero que es probable que lo mejor sea tener precaución.

Prisma Labs aseveró que solo usaba las fotografías subidas a Lensa para crear los avatares y que eliminaba las imágenes de sus servidores después de 24 horas. Aun así, las fotografías que desees mantener privadas es mejor no subirlas a Lensa.

Evan Greer, una directora en Fight for the Future, un grupo de defensoría de derechos digitales, opinó: “Estás ayudando a los robots al darles exactamente lo que necesitan para crear mejores modelos. Debes suponer que la compañía puede tener acceso a ellas”.

 

Úsalos para mejorar tu trabajo, no para que lo hagan

Con eso en mente, la IA puede ser útil si buscas un poco de ayuda. Una persona podría pedirle a un bot de conversación que reescriba un párrafo en voz activa. Un anglohablante no nativo podría solicitarle a ChatGPT que elimine errores gramaticales en un correo electrónico antes de mandarlo. Un estudiante podría demandar al bot sugerencias sobre cómo hacer un ensayo más persuasivo.

No obstante, en cualquier situación como esas, no tengas confianza ciega en el bot.

Mitchell señaló: “Necesitas a un humano en el proceso para asegurarte de que están diciendo lo que quieres que digan y de que son verdades y no falsedades”.

Además, agregó que, si decides utilizar una herramienta como ChatGPT o Lensa para producir una obra, considera dar a conocer que se empleó la herramienta. Eso sería similar a dar crédito a otros autores por su trabajo.

Confesión: ChatGPT editó el noveno párrafo de esta columna en inglés (aunque humanos escribieron y verificaron los hechos de toda la columna).

ChatGPT es un punto de inflexión para la inteligencia artificial y necesitamos aprovechar esas herramientas sin causar daño a nosotros mismos o a otras personas.

c.2022 The New York Times Company

JRL

 

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *