Rumman Chowdhury, cofundadora de Humane Intelligence, una organización sin fines de lucro que desarrolla sistemas confiables de inteligencia artificial, posa para una fotografía en su casa el lunes 8 de mayo de 2023, en Katy, Texas

Tan pronto como ChatGPT empezó a funcionar, los hackers intentaron penetrar el chatbot de inteligencia artificial, intentando anular sus mecanismos de seguridad para que pudiera dar respuestas perturbadoras u obscenas.

Pero ahora su fabricante, OpenAI, y otros importantes proveedores de inteligencia artificial como Google y Microsoft, trabajan en coordinación con el gobierno federal para permitir que millones de hackers pongan a prueba los límites de su tecnología.

Algunas de las cosas que intentarán encontrar: ¿Se puede manipular a los chatbots para causar daños? ¿Compartirán con otros usuarios la información privada que les conferimos? ¿Y por qué asumen que un doctor es hombre y un enfermero es mujer?

“Es por esto que necesitamos a miles de personas”, dijo Rumman Chowdhury, coordinadora del evento masivo de hackeo que se planea para la convención de hackers DEF CON en Las Vegas, el cual se prevé que atraiga a varios miles. “Necesitamos a muchas personas con una amplia gama de experiencias de vida, conocimientos del tema y antecedentes de hackeo de estos modelos y tratar de encontrar problemas que entonces podemos dedicarnos a solucionar”.

Cualquiera que haya probado ChatGPT, el chatbot Bing de Microsoft, o el Bard de Google habrá notado rápidamente que tienen una tendencia a inventar información y presentarla con toda confianza como un hecho. Estos sistemas, desarrollados en lo que se conoce como grandes modelos de lenguaje, también emulan los sesgos culturales que han aprendido al ser entrenados con la gran cantidad de documentos que se han publicado en internet.

La idea de un hackeo masivo atrajo la atención de funcionarios del gobierno federal en marzo pasado durante el festival South by Southwest en Austin, Texas, donde Sven Cattell, fundador del AI Village de DEF CON, y Austin Carson, presidente de la organización no gubernamental de inteligencia artificial responsable SeedAI, ayudaron a encabezar un taller en el que se invitaba a estudiantes de colegios comunitarios a hackear un modelo de inteligencia artificial.

Carson dijo que esas conversaciones eventualmente se transformaron en una propuesta para poner a prueba modelos de lenguaje de inteligencia artificial siguiendo los lineamientos del plano de la Casa Blanca para un acta de derechos de inteligencia artificial — un conjunto de principios para limitar los impactos de sesgos algorítmicos, darle al usuario el control de sus datos y garantizar que los sistemas automatizados se utilicen de forma segura y transparente.

JFF 

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *