Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así

Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así

En estos meses hemos oído y leído como ChatGPT plantea el fin de los deberes de toda la vida. Los alumnos pueden utilizar la herramienta para redactar trabajos y completar tareas impuestas en clase, y eso preocupa cada vez más en el entorno académico. Lo que ha ocurrido estos días es distinto, porque quien ha usado ChatGPT no han sido los alumnos, sino un profesor. El resultado, por cierto, ha sido desastroso.

Voy a corregir vuestros trabajos con ChatGPT. Jared Mumm, profesor de la Universidad de Texas, informó recientemente a sus estudiantes de que había usado ChatGPT para comprobar si sus trabajos para su asignatura habían sido escritos por una máquina. En un mensaje de Reddit que se ha hecho viral el novio de una de las alumnas de ese curso publicaba el aviso del profesor, que avusaba de que ChatGPT “me dirá si el programa generó el contenido [de vuestros trabajos]”.

“Si habéis usado IA, estáis suspensos”. Como indica The Register, en el mensaje Mumm explicaba cómo haría la prueba con los tres trabajos finales de sus alumnos y pasaría esa prueba dos veces. Si ChatGPT detectaba que los textos habían sido generados por este modelo, “suspendería ese trabajo”. Tras hacerlo, comunicó a sus alumnos que “voy a calificar a todos en esta clase con una X”. Varios de sus estudiantes afirmaron que después les dijo a varios de ellos que “no voy a calificar mierda [generada por] IA”. Esa letra “X” significa que el curso no se ha completado, y también sirve como medida temporal para investigar el problema.

ChatGPT no sirve para detectar copias. Este profesor fue introduciendo los textos de los alumnos en ChatGPT y luego preguntó a este modelo de IA si ese texto había sido escrito por el propio ChatGPT. El problema es que ChatGPT no está hecho para detectar contenido generado por IA (ni por sí mismo). Hay sistemas que tratan de detectar contenidos generados por IA como Winston AI o Content at Scale, pero ChatGPT no puede hacerlo. Un estudio reciente de la Universidad de Maryland revela que detectar texto generado por una IA es muy difícil y en el futuro probablemente sea imposible.

Investigación en marcha. Algunos estudiantes ya han sido calificados correctamente y han sido “absueltos” de la acusación de haber copiado, mientras que otros han preferido enviar de nuevo sus ensayos para ser calificados. Al menos uno de esos alumnos ha admitido haber usado ChatGPT para sus trabajos. La institución ha publicado un comunicado en el que revelan que “a ningún alumno se le ha suspendido ni se le ha impedido graduarse por este problema”. También cometaban cómo el incidente se está investigando de cara a desarrollar medidas para evitar “el mal uso de la tecnología de IA en clase”.

Situación (más o menos) resuelta. En una actualización del mensaje original se explica que “la situación está prácticamente resuelta: la universidad ha admitido a sus estudiantes que sus notas no debían haber sido suspendidas. Era algo fuera del protocolo y un uso inapropiado de ChatGPT”.

Pero intentarán detectar contenidos generados por IA. Aún así en el comunicado de la universidad se especificaba cómo en esta institución se está trabajando para “adoptar herramientas de detección de IA y otros recursos para gestionar la intersección de la tecnología de IA en la educación superior. El uso de la IA en trabajos de clase es un problema cambiante que confronta con todas las instituciones académicas”.

Imagen | Xataka con Midjourney

En Xataka | El identificador de IA de OpenAI tiene un problema: ellos ponen el zorro y ellos vigilan las gallinas


La noticia

Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así

fue publicada originalmente en

Xataka

por
Javier Pastor

.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *