<img src="https://certify.alexametrics.com/atrk.gif?account=fxUuj1aEsk00aa" style="display:none" height="1" width="1" alt="">

Alumnos de un colegio de Quito usaron inteligencia artificial para crear videos sexuales con los rostros de sus compañeras

jueves, 5 octubre 2023 - 19:06
Facebook
Twitter
Whatsapp
Email
La Fiscalía General del Estado (FGE) abrió una investigación por el presunto delito de pornografía infantil en un colegio privado de Quito, puesto que dos estudiantes habrían realizado montajes de contenido sexual con ayuda de la inteligencia artificial.

Dos adolescentes, de primero de bachillerato, de una institución educativa del valle de Los Chillos, habrían fotografiado a estudiantes mujeres de distintos niveles (desde primero hasta tercero de bachillerato). Después usaron esas imágenes para crear videos y fotos de carácter sexual.

Las víctimas se enteraron de ese material, luego de que empezara a circular en el colegio. Serían entre 20 y 24 alumnas afectadas por este hecho de violencia digital.

Mientras que el material generado ascendería a los 700 videos y fotos, aunque es una cifra que está por comprobarse.

Los jóvenes detrás de esta agresión abandonaron el colegio por voluntad propia, según informó Sybel Martínez, de la fundación Grupo Rescate Escolar, a la cadena Ecuavisa.

Esa organización junto a algunos padres de familia presentaron una denuncia el pasado miércoles, ante la falta de celeridad de las autoridades de la institución educativa.

“De acuerdo a los padres, el lunes, la rectora comentó que estaban elaborando un informe para ser puesto a consideración del distrito, pero recordemos que esto se supo el martes de la semana anterior. Inmediatamente, se debía haber puesto la denuncia”, señaló Martínez.

Lea también: Fiscalía investiga a excantante que grabó un video de contenido sexual con estudiantes de colegio

AUTORIDADES SE PRONUNCIAN

Por su parte, el colegio envió un correo a la cadena Ecuavisa, en el que indicó que “es más apropiado que se resuelvan los asuntos legales y se garantice la protección de todos los menores antes de abordar públicamente el tema”.

La Fiscalía anunció este jueves una investigación por el presunto delito de pornografía con utilización de niños, niñas y adolescentes, por la difusión de imágenes y videos de estudiantes modificados mediante IA.

Mientras que el Ministerio de Educación recordó que desde el pasado 28 de septiembre, existe el “Protocolo de atención frente a situaciones de violencia digital detectadas en el Sistema Nacional de Educación”.

Por lo tanto, cualquier caso de violencia digital debe regirse a ese documento de aplicación obligatoria para todos los niveles.

Lea también: Extranjera denuncia violación durante un recorrido en Galápagos: "Mi viaje se convirtió en un infierno"

¿QUÉ ES UN DEEP FAKE?

El caso ocurrido en el colegio de Quito estaría enmarcado en una modalidad llamada ‘Depp Fake’. Según el portal de la universidad española ESIC, este término hace referencia a la alteración de fotos y videos a través de inteligencia artificial.

En el mundo se ha vuelto cada vez más común por el fácil acceso a las nuevas tecnologías, pero también ha supuesto un peligro para la sociedad. En los últimos tiempos, se ha visto cómo la IA es usada con fines políticos e incluso para suplantar la identidad y estafar.

Hubo un caso en el que se realizó un audio de la voz del CEO de una compañía de energía del Reino Unido, pidiendo a un director ejecutivo que realizara una transferencia de 200.000 euros a un supuesto proveedor húngaro.

“Cuando se dieron cuenta de la estafa, el dinero ya estaba disperso por todo el mundo y se había movido a través de cuentas de Hungría y México”, describe la página web de ESIC.

Así mismo, se han presentado miles de casos de videos sexuales realizadoscon fotos de personas famosas, todo con el objetivo de perjudicar la honra.

Lea también: Pornografía infantil en Ecuador: niños son acechados por redes sociales o incluso los propios familiares los agreden

Más leídas
 
Lo más reciente