top of page
Buscar

Detectores de IA y plagio académico

Actualizado: 19 mar

¿Qué tan fiables son los programas para detectar contenido generado con IAG?


















El cierre del semestre en muchas universidades suele coincidir con una intensa acumulación de trabajos finales para el profesorado. Ensayos, reflexiones, reseñas críticas y proyectos se acumulan para su evaluación, mientras el estrés se percibe en los pasillos y, a lo lejos, se escuchan conversaciones inquietantes entre colegas. En ellas se repite una preocupación cada vez más común entre el profesorado: la sospecha de que gran parte del estudiantado recurre a herramientas de Inteligencia Artificial Generativa (IAG) para elaborar sus entregas finales.


No se trata de una inquietud menor. Para el profesorado, el desafío no radica solo en identificar posibles irregularidades, sino en hacerlo sin incurrir en evaluaciones injustas. Cualquier acusación relacionada con plagio o uso indebido de IAG debe estar sustentada en evidencias sólidas, ya que un error en la calificación puede acarrear consecuencias académicas, administrativas e incluso legales para el profesorado.


En este contexto, los programas de detección de plagio y de contenido generado con IAG han adquirido un gran protagonismo en las universidades. Estas herramientas se presentan como aliados tecnológicos capaces de indicar si un texto ha sido producido por una IAG. Sin embargo, confiar ciegamente en sus resultados plantea un dilema importante. ¿Hasta qué punto son fiables estos sistemas cuando se utilizan para tomar decisiones tan delicadas como reprobar o suspender definitivamente a un/a estudiante?


Errores humanos y tecnológicos: cuando los detectores de IAG fallan


El uso de herramientas de inteligencia artificial para detectar plagio ha dado lugar a situaciones controvertidas que ponen de manifiesto tanto sus limitaciones como los riesgos derivados de un uso acrítico. A continuación, se presentan tres casos recientes extraídos de diversos medios informativos, que ilustran los problemas que pueden surgir cuando se confía excesivamente en estas herramientas, sin un análisis adicional por parte del profesorado.


En La Vanguardia se publicó una nota que informaba sobre lo que ocurrido en Texas A&M University Commerce, donde un profesor intentó descubrir si los ensayos finales de su clase habían sido elaborados con IAG.


Basándose únicamente en esa respuesta, el profesor modificó las calificaciones de todo el grupo asignando una calificación reprobatoria. Para el estudiantado que estaba a un paso de egresar, esto implicó no solo una mala nota, sino el riesgo de ver comprometida su graduación. Ante la inconformidad y las quejas formales, las autoridades universitarias revisaron el caso y, pocos días después, determinaron que la acusación por parte del profesor hacia sus estudiantes carecía de sustento. La investigación concluyó que ChatGPT no es una herramienta diseñada ni validada para detectar plagio ni para determinar la autoría de un texto académico. Como resultado, las sanciones fueron revertidas y el estudiantado fue exonerado de las acusaciones.


Otra situación similar fue documentada en el portal de noticias USA Today. Este caso ocurrió en la University of North Georgia, donde una estudiante fue señalada de usar herramientas de IAG, para escribir un trabajo académico cuando en realidad solo había usado Grammarly para corregir su ortografía y gramática. 


Grammarly es una conocida asistente de escritura que ayuda a revisar estilo, corrección ortográfica y gramática, y que muchos estudiantes utilizan de manera rutinaria para mejorar la claridad de sus textos. Sin embargo, cuando la estudiante envió su trabajo al profesor para su evaluación, este lo analizó mediante el software de detección de contenido de Turnitin, que lo marcó como “generado por IAG”.


Con ese resultado, el profesor no solo le asignó un cero en la tarea, sino que, a nivel institucional, la universidad la puso en periodo de prueba académica, una sanción seria que podía afectar su expediente y sus oportunidades futuras. La estudiante señaló que solo había utilizado la versión gratuita de Grammarly para corregir errores de puntuación y sintaxis, sin pedir a la herramienta que generara contenido nuevo con IAG.


Este caso no solo la afectó en lo inmediato, al quedar en periodo de prueba, sino que también se viralizó en redes sociales cuando compartió su experiencia, lo que generó un debate público sobre la forma en que las políticas institucionales y las herramientas de detección pueden confluir para sancionar injustamente al estudiantado.


Recientemente, en ABC News se publicó una investigación sobre un problema masivo ocurrido en la Universidad Católica de Australia en 2024, en donde se acusó a miles de estudiantes de usar IAG para la realización de tareas.


Según los informes de la universidad, se registraron casi 6000 casos de presunta mala conducta académica, y alrededor del 90 % de ellos estaban relacionados con supuestos usos no autorizados de IAG en tareas y ensayos. Entre los afectados se encontraba Madeleine, una estudiante de enfermería que estaba en el tramo final de su formación y quien buscaba empleo en su campo profesional, cuando recibió un correo por parte de los directivos de su universidad. En el correo se le acusaba de haber utilizado IAG para elaborar sus trabajos, lo que la colocó en una situación legal y profesionalmente incierta. 


Durante seis meses, mientras la universidad investigaba su caso, el expediente académico de Madeleine fue retenido, lo cual impidió que su título fuera expedido dentro de los tiempos normales. La acusación relizada contra la estudiante se basó en los resultados del detector de IA de Turnitin sin tener evidencia adicional.


Aunque la universidad más tarde admitió que exageró un poco, muchos estudiantes tuvieron que demostrar su inocencia presentando notas escritas a mano, búsquedas de internet y otros materiales personales, un proceso largo y estresante para quienes ya estaban lidiando con la presión académica y profesional. 


Detectores de contenido generado por IAG;

¿qué dice la evidencia científica sobre su fiabilidad?


Más allá de los casos mediáticos, la pregunta clave es si existen evidencias científicas que respalden la efectividad de los programas antiplagio para detectar contenido generado por IAG. En los últimos años, distintos estudios han explorado esta cuestión, poniendo a prueba dichas herramientas.


En 2023, un investigador de la Universidad de Sudáfrica analizó cinco detectores de uso común en el ámbito educativo, entre ellos GPTZero, Copyleaks, Writer AI Content Detector, Content at Scale y el entonces disponible AI Text Classifier de OpenAI. El objetivo del estudio fue evaluar la capacidad de estas herramientas para distinguir entre textos escritos por personas y textos generados por modelos como ChatGPT, YouChat y ChatSonic (Chaka, 2023).


Los resultados mostraron diferentes grados de fiabilidad entre las herramientas evaluadas; no obstante, ninguna alcanzó niveles de precisión suficientes para ser utilizada como prueba concluyente en contextos académicos. Uno de los hallazgos más relevantes fue la presencia constante de falsos positivos, es decir, textos producidos por humanos que eran clasificados de manera errónea como generados por inteligencia artificial. Desde una perspectiva educativa, este tipo de error resulta especialmente problemático, ya que puede derivar en acusaciones injustas de plagio y en sanciones que afectan directamente la trayectoria académica del estudiantado.


El estudio subraya que estos detectores funcionan mejor como instrumentos de apoyo para el análisis docente, pero no como mecanismos automáticos para la toma de decisiones. Utilizarlos de forma aislada implica asumir que la tecnología puede ofrecer certezas donde, en realidad, solo proporciona estimaciones probabilísticas.


Resultados como estos se han reforzado en estudios más recientes, como el realizado por Perkins et al. (2024). En este trabajo, los investigadores analizaron qué ocurre cuando los textos generados por IAG son modificados mediante ajustes simples, como cambiar la estructura de las frases, introducir errores ortográficos o variar el nivel de complejidad lingüística.


Los resultados revelaron que este tipo de modificaciones reduce la precisión de los detectores en promedio un 17.4 % y, en algunos casos, logra engañarlos por completo. En términos prácticos, esto significa que no se requieren conocimientos técnicos avanzados para evadir los sistemas de detección. Un estudiante con un mínimo de tiempo puede ajustar un texto generado por IAG y evitar ser identificado, mientras que otros trabajos legítimos siguen siendo marcados erróneamente como sospechosos.


Como se puede observar, la evidencia científica sugiere cautela al utilizar programas antiplagio en relación con sus resultados. Es evidente que estas herramientas no pueden tomarse como un recurso plenamente fiable y que sigue siendo necesario el juicio humano para revisar los trabajos en profundidad y tomar decisiones fundamentadas.


Es importante que el profesorado comprenda que, más que jugar a “policías y ladrones”, lo relevante no es vigilar aal estudiantado con la intención de “atraparlos”, sino transformar las prácticas de enseñanza. Por otro lado, también es necesario que las instituciones no se limiten a marcos generales para regular el uso de estas tecnologías, sino que desarrollen protocolos específicos que orienten cómo actuar ante situaciones concretas.

Referencias


Bergin, J. (8 de octubre de 2025). University wrongly accuses students of using artificial intelligence to cheat. ABC News. https://www.abc.net.au/news/2025-10-09/artificial-intelligence-cheating-australian-catholic-university/105863524


Chaka, C. (2023). Detecting AI content in responses generated by ChatGPT, YouChat, and Chatsonic: The case of five AI content detection tolos. Journal of Applied Learning & Teaching, 6(2), 94-104. https://doi.org/10.37074/jalt.2023.6.2.12


Font, A. (19 de mayo de 2023). Un profesor suspende a la mitad de sus alumnos tras acusarlos falsamente de usar ChatGPT. La Vanguardia. https://www.lavanguardia.com/tecnologia/20230519/8975618/chatgpt-lia-clase-suspenden-todos-alumnos-asegurase-falsamente-habia-hecho-trabajos-pmv.html


Perkins, M., Roe, J., Vu, B., Postma, D., Hickerson, D., McGaughran, J., & Kuhat, H. (2024). Simple techniques to bypass GenAI text detectors: implications for inclusive education. International Journal of Educational Technology in Higher Education, 21(53), 1-25. https://doi.org/10.1186/s41239-024-00487-w


Tang, H. (17 de abril 2024). She used Grammarly to proofread her paper. Now she's accused of 'unintentionally cheating. USA Today. https://www.usatoday.com/story/opinion/voices/2024/04/17/ai-students-cheating-plagiarism-grammarly/73223779007/



 
 
 

Comentarios


bottom of page