Hacer trampa en ensayos en educaci贸n superior a trav茅s de ChatGPT Alarms Academia

Hacer trampa en ensayos en educaci贸n superior a trav茅s de ChatGPT Alarms Academia

Noticias IBL | Nueva York

Un profesor asistente de la Universidad Furman de Carolina del Sur hizo sonar la alarma sobre el plagio y la deshonestidad acad茅mica despu茅s de que atraparon a un estudiante que usaba ChatGPT de Open AI para escribir un ensayo para su clase de filosof铆a.

La tecnolog铆a disruptiva de hace tres semanas ChatGPT parece estar provocando trampas a gran escala en el mundo acad茅mico.

El profesor asistente de filosof铆a Darren Hick le dijo a The New York Post, “La academia no vio venir esto. As铆 que estamos un poco sorprendidos”.

“Tan pronto como inform茅 sobre esto en Facebook, mis amigos acad茅micos dijeron: ‘S铆, yo tambi茅n atrap茅 uno’.

Hick explic贸 este caso de esta manera:

“El estudiante us贸 ChatGPT, un chatbot avanzado que produce respuestas similares a las humanas a las indicaciones generadas por el usuario. Tales indicaciones pueden variar desde “Explicar el ciclo de Krebs” hasta (como en mi caso) “Escribe 500 palabras sobre Hume y la paradoja del horror”. .”

“Para las clases de primer a帽o, esto es un cambio de juego”.

Por ahora, y mientras ChatGPT mejora, una de las soluciones para combatir las trampas es el GPT-2 Output Detector. Detecta si el texto se ha producido con tecnolog铆a GPT y determina si es falso. Sin embargo, no puede apuntar a ninguna fuente en Internet ya que utiliza redes neuronales para producir sus respuestas.

“Las administraciones tendr谩n que desarrollar est谩ndares para tratar este tipo de casos, y tendr谩n que hacerlo r谩pido”.

“En el futuro, espero instituir una pol铆tica que establezca que si creo que el material enviado por un estudiante fue producido por A.I., lo desechar茅 y le dar茅 al estudiante un examen oral improvisado sobre el mismo material . Hasta que mi escuela desarrolle alg煤n est谩ndar para lidiar con este tipo de cosas, es el 煤nico camino que se me ocurre”.

Historias sobre ChatGPT en IBL News
.