EMOLTV

Denuncian que alumnos del Saint George usaron IA para crear imágenes desnudas de compañeras: Fiscalía investiga

Según confirmaron a Emol, la Superintendencia de Educación ya recibió una denuncia al respecto y se dio curso a una indagación.

24 de Mayo de 2024 | 10:45 | Por L.Vallejos y B.Olivares Nieto, Emol
imagen
Aton
Apoderados del colegio Saint George presentaron un recurso de protección por delitos de índole sexual que afectaron a un grupo de estudiantes del recinto educacional de la comuna de Vitacura, Región Metropolitana.

Son siete alumnas, de octavo básico a enseñanza media, que habrían sido víctimas de deepfake, mecanismo mediante el cual crearon imágenes a través de inteligencia artificial (IA) donde aparecen desnudas. Estas imágenes habrían sido creadas por compañeros del mismo establecimiento.

Según informó el medio Interferencia, el grupo de apoderados recurrió hasta la justicia, presentado la acción ya mencionada y la causa se encuentra "reservada". El ilícito se produjo durante febrero de este años, y habría provocado que las menores hayan sido objeto de burlas.

Además, desde el Ministerio Público informaron a Emol que se abrirá una investigación de oficio por el caso. Por otro lado, la Superintendencia de Educación señaló a este medio que sí existe una denuncia al respecto y que ya se dio curso a una investigación.
EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?