Cómo identificar textos creados por IA: lista práctica para docentes y técnicas OSINT

Cómo identificar textos creados por IA: lista práctica para docentes y técnicas OSINT

Ayer detectábamos plagio comparando ensayos estudiantiles con trabajos ajenos. Hoy toca detectar alucinaciones de ChatGPT. Los robots escriben sin faltas ortográficas, pero dejan tras de sí todo un zoológico de pistas pequeñas pero llamativas. Analizamos cómo no caer víctima de un texto pulcro pero vacío y por qué un profesor de Florida obliga a los estudiantes a teclear el guion largo directamente en clase.

Los libros de texto los escriben bots: prólogo desde Florida

Mark Massaro, quien enseña escritura académica en Florida SouthWestern State College, observó una estadística curiosa: aproximadamente uno de cada cinco ensayos parece como si lo hubiera escrito una red neuronal. Detectores como Turnitin y GPTZero ayudan poco: las normas de privacidad prohíben subir masivamente borradores estudiantiles, y la precisión de los algoritmos oscila entre el 80 y el 50 % según los recursos del autor.

Cansado de esperar un algoritmo milagroso, Massaro elaboró su propia lista de verificación de «banderas rojas». Nosotros ampliamos su experiencia con conclusiones de colegas lingüistas y especialistas en verificación OSINT.

Lista de verificación de señales sospechosas

A continuación, el «radar» completo de 2025: señales que con mayor frecuencia delatan un texto generado por máquina. Para mayor comodidad se dividen en dos grupos: básicas y avanzadas.

Indicadores básicos

  1. Abuso de guiones largos — ChatGPT tiende a pausas largas, y la mayoría de los estudiantes no sabe cómo teclear «—». Pida que muestren la combinación de teclas: el tropiezo habla más que las palabras.
  2. Ausencia de sangrías en los párrafos. Al copiar desde el chat se borra el formato y el texto queda monolítico.
  3. Gramática perfecta y contenido vacío. Párrafos de la misma longitud, brillo académico y cero ideas frescas.
  4. Ausencia total de borradores. Ni comentarios ni versiones: como si el ensayo hubiera nacido perfecto.
  5. Tono impersonal o «globalmente filosófico». La red neuronal discute la «valor universal de la amistad», pero evita describir el olor del café en el turno de noche en 7-Eleven.
  6. Citas o referencias falsas. El DOI no existe, la revista no aparece en búsquedas y el autor del artículo es producto de la imaginación del modelo.

Indicadores avanzados 

# Señal potencial Por qué resulta inquietante
1 Definición tipo wiki «directa» en el primer párrafo
«X — es…»
El LLM intenta «marcar el tema» de inmediato; un autor humano suele empezar con un ejemplo o una historia.
2 Puntuación hipercorrecta Comas y puntos y comas colocados según cánones de Rozental, a veces resultan excesivos o «secos».
3 Conectores mecánicos
«Además», «Por otra parte» estrictamente al inicio de los párrafos
El modelo usa transiciones tipo plantilla para mantener un «ritmo».
4 Mezcla de normas lingüísticas
«behavior/behaviour»
Los corpus de entrenamiento son heterogéneos, la modelo confunde estándares.
5 Léxico académico en un tema cotidiano «Paradigma de la dinámica sociocultural de la comida rápida» es claramente exagerado para un ensayo escolar.
6 Longitud uniforme de las oraciones Baja dispersión en la longitud — típico «monotonía mecánica».
7 Hechos sin fuente verificable Imposible precisar la publicación, los nombres de organizaciones son inventados.
8 Exceso al explicar siglas La IA aclara VPN — Virtual Private Network en cada mención; una persona lo hace una vez.
9 Ausencia de «suciedad humana» del editor Ni erratas, ni espacios dobles, ni sustituciones accidentales.
10 Residuos del sistema HTML/Markdown En el texto quedan etiquetas invisibles o comentarios como <!-- GPT -->.

Consejo práctico: compare la dispersión de la longitud de las oraciones del ensayo sospechoso con trabajos anteriores del estudiante. Diferencia > 30 % — motivo para conversar.

Detectores de IA: útiles, pero confiar y verificar

Servicios GPTZero, Turnitin, Originality.ai prometen precisión de hasta 98 %, pero en la práctica las cifras bajan si el estudiante parafrasea o reescribe manualmente el texto. Falsos positivos y detecciones fallidas son todavía inevitables, por lo que el detector es una linterna, no una sentencia.

  • Ventajas: rápido, masivo, integrable en un LMS.
  • Desventajas: alto coste, posibilidad de eludirlo con sinónimos, riesgo de acusar a un autor honesto.

Combinando OSINT y pedagogía

  1. Pida mostrar los borradores en Google Docs — el historial de cambios nunca miente.
  2. Cuestión breve oral — ayuda al autor a «defender» sus tesis.
  3. «Prueba del guion largo» — que teclee el guion largo en el teclado sin abrir el buscador.
  4. Pequeñas ediciones — cambie un par de palabras y vuelva a pasar por el detector. ¿La probabilidad de IA cae drásticamente? Ante usted hay un robot.
  5. Pregunta personal — «Describa el olor del aula la mañana del examen». El modelo se perderá, el estudiante no.

Cómo no parecer un robot como autor

  • Añada detalles que solo usted pudo observar.
  • Alterne la longitud de las oraciones y el ritmo.
  • Verifique cada fuente manualmente.
  • Guarde versiones intermedias — el profesor valorará su progreso.

Conclusiones

Las redes neuronales no matan la escritura, pero complican la verificación de autenticidad. Desde guiones largos perfectos hasta «enciclopedia en el primer párrafo», cada discrepancia acerca a la solución. Cuanto más atento sea el lector, más ingenioso se volverá el bot. Parece que el truco principal del futuro será escribir de modo que ningún algoritmo lo confunda con otra persona, porque los algoritmos aprenden de lo promedio, y su letra es única.

Pruébese ahora mismo: ¿puede teclear un guion largo sin abrir el buscador?

Alt text