Lecciones de literatura: la IA escribe ensayos; lecciones de vida: destruye la psique infantil

Lecciones de literatura: la IA escribe ensayos; lecciones de vida: destruye la psique infantil

Los adolescentes se «nudifican» entre ellos y los adultos no saben qué hacer.

image

El uso de IA generativa por parte de adolescentes para crear imágenes pornográficas de sus compañeros se está convirtiendo en un problema grave para el que ni las escuelas, ni la policía, ni las leyes están preparadas. Así lo indica un nuevo informe del Stanford Cyber Policy Center, basado en el análisis de documentos oficiales y entrevistas con víctimas, padres, policías, empleados de plataformas en línea y ONG.

La investigación muestra que tecnologías antes utilizadas para tareas inocentes como redactar ensayos escolares ahora son empleadas activamente por menores para crear imágenes sexualizadas de otros niños. Y no se trata de algo oculto: en internet se discuten abiertamente las aplicaciones de «nudificación», se comparten instrucciones y usuarios de países donde estas acciones no son delito refuerzan la sensación de normalidad y legitimidad. Esta percepción se ve reforzada por el fácil acceso a estas herramientas en Google Play y App Store, y su publicidad se difunde por TikTok e Instagram.

Según un especialista en seguridad digital, existen cientos de estas aplicaciones en la red, y casi ninguna cuenta con restricciones incorporadas que impidan la creación de pornografía infantil. Incluso los profesionales se encuentran con nuevas herramientas de IA que no conocían, mientras que entre los escolares el tema es de conversación común.

Los autores del informe subrayan que, aunque 38 estados de EE. UU. han aprobado leyes sobre la pornografía infantil generada con IA, la mayoría no contempla escenarios tan comunes como «adolescente contra adolescente». Sólo ahora las nuevas iniciativas legales empiezan a clasificar el uso de estas apps entre compañeros como una forma de ciberacoso.

En uno de los casos, una alumna descubrió que alguien había creado una imagen suya desnuda con IA. Al principio no lo creyó, ya que pensaba que la IA solo servía para escribir ensayos. Otras víctimas relataron el impacto que les causó ver las imágenes: eran tan realistas que parecían fotos auténticas. Una madre confesó que esperaba “algo tipo Photoshop”, pero lo que vio parecía verdadero. Otra estudiante contó que una foto suya de un sitio común fue transformada en «una imagen monstruosa con pechos», y sintió que había perdido todo control.

Una vez que las imágenes se hacen públicas, los menores enfrentan acoso, aislamiento, problemas académicos e incluso pérdida de confianza en sus maestros. Una alumna escribió al personal del colegio que no podía sentirse segura, que se sentía desestabilizada, y que los rumores e investigaciones en su entorno escolar no le permitían concentrarse en los estudios.

Algunos padres expresan su preocupación no solo por las consecuencias actuales, sino por las futuras. Temen que las imágenes falsas reaparezcan y afecten el ingreso a la universidad, la carrera profesional o la vida personal del adolescente. Algunas madres incluso temen que los propios profesores eviten redactar cartas de recomendación por el escándalo generado.

El problema se agrava porque muchas escuelas aún no saben cómo actuar en estos casos. Según datos del Centro para la Democracia y la Tecnología, el 62 % de los docentes no ha recibido instrucciones sobre cómo manejar estos incidentes. Y el 56 % no ha recibido ningún tipo de formación sobre IA o deepfakes. Un asesor comentó que la mayoría de las escuelas tiene planes ante tiroteos, pero ninguna preparación frente a la difusión de imágenes íntimas generadas por IA.

El informe propone una serie de recomendaciones: desde brindar acceso a psicólogos externos y flexibilidad académica para las víctimas, hasta crear plantillas de comunicación para informar a la comunidad y recurrir a asesores legales escolares para evaluar las obligaciones jurídicas. Se destaca especialmente la importancia de canales anónimos para reportar estos casos: en varios episodios, los hechos se descubrieron gracias a estas llamadas “líneas silenciosas” (por ejemplo, formularios escolares para denunciar acoso).

Los autores del estudio no ofrecen una respuesta clara sobre si se debe hablar con los alumnos sobre las apps de «nudificación», ya que existe el riesgo de que la información genere interés y participación. Sin embargo, en un contexto donde los niños literalmente pueden crear una imagen íntima falsa en un minuto, la cuestión deja de ser teórica y se vuelve cada vez más urgente.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!