Nueva York.- OpenAI, que lanzó el chatbot viral ChatGPT el año pasado, presentó una herramienta que pretende ayudar a mostrar si un texto fue escrito por un programa de inteligencia artificial y se hizo pasar por humano.
La herramienta marcará el contenido escrito por los productos de OpenAI, así como otro software de creación de IA. Sin embargo, la compañía dijo que “todavía tiene una serie de limitaciones, por lo que debe usarse como complemento de otros métodos para determinar la fuente del texto en lugar de ser la herramienta principal para la toma de decisiones”.
En las evaluaciones de la empresa respaldada por Microsoft Corp, solo el 26% del texto escrito por IA se identificó correctamente. También marcó el 9% del texto escrito por humanos como compuesto por IA.
La herramienta, llamada clasificador, estará disponible como una aplicación web, junto con algunos recursos para maestros, dijo la compañía en un comunicado este martes.
La popularidad de ChatGPT ha dado lugar a preocupaciones sobre la autoría, ya que los estudiantes y los trabajadores utilizan el bot para crear informes y contenido y hacerlos pasar como propios. También generó preocupaciones sobre la facilidad de las campañas de desinformación generadas automáticamente.
Si bien es imposible detectar de manera confiable todo el texto escrito por IA, creemos que los buenos clasificadores pueden informar las mitigaciones de afirmaciones falsas de que el texto generado por IA fue escrito por un humano: por ejemplo, ejecutar campañas automatizadas de desinformación, usar herramientas de IA para la deshonestidad académica, y posicionar un chatbot de IA como un ser humano”, dijo OpenAI en una publicación de blog.
Desde el lanzamiento de ChatGPT en noviembre, los maestros en particular han estado luchando para sobrellevar la situación.
Los estudiantes rápidamente se dieron cuenta de que la herramienta podía generar trabajos finales y resumir el material, aunque ocasionalmente insertaba errores evidentes.
A principios de este mes, un estudiante de la Universidad de Princeton llamado Edward Tian lanzó una aplicación llamada GPTZero que dijo programó durante el Año Nuevo para detectar la escritura de IA. Ethan Mollick, profesor de la Escuela Wharton de la Universidad de Pensilvania, desarrolló una política de inteligencia artificial para sus clases, que permite a los estudiantes usar ChatGPT siempre que proporcionen una descripción de para qué usaron el programa y cómo lo usaron.
Las escuelas públicas de la ciudad de Nueva York han prohibido el uso de ChatGPT, al igual que la Conferencia Internacional sobre Aprendizaje Automático, excepto en ciertos casos.
La declaración de ética de la conferencia señaló que “los documentos que incluyen texto generado a partir de un modelo de lenguaje a gran escala (LLM) como ChatGPT están prohibidos a menos que el texto producido se presente como parte del análisis experimental del documento”.
DSS