Alerta escuelas: cómo venden imágenes de compañeras desnudas con inteligencia artificial
A partir de un hecho particular en un colegio, se inició una investigación que advierte sobre los perjuicios de la IA utilizada para agredir psicológicamente a menores.
Por Redacción 0223
PARA 0223
Los avances tecnológicos presentan nuevos desafíos en una era atravesada por lo digital. Mientras la inteligencia artificial es aprovechada en medicina, nuevos descubrimientos y muchos campos más, la injerencia en divulgaciones falsas y creaciones fuera de la realidad generan perturbaciones en distintos espacios. Los menores no están ajenos a la revolución de la IA.
En el Agustiniano de San Martín, colegio religioso de la provincia de Buenos Aires, un grupo de familiares acusó a un chico de 15 años por vender fotos de compañeras adulteradas por la inteligencia artificial. Aparecían desnudas, las comercializaba por 25 mil pesos el pack y tenía a un total de 22 chicas afectadas.
Además del problema del agresor y "creador" de las fotos, el tema radica en el consumo: menores y hasta adultos, compraban las fotos. Se le inició una causa al creador del contenido desde la fiscalía de Responsabilidad Penal Juvenil. Allanaron su casa y secuestraron computadora y celular. También, la doctora que entiende en la causa, citó a declarar a la directora y a una auxiliar.
Cómo hacía el acusado para crear las imágenes
El chico descargaba fotos públicas de las cuentas de redes sociales de sus compañeras. Las pasaba por una función de inteligencia artificial y lograba dejarles el mismo rostro, pero otro cuerpo. Desnudo. Luego, compartía el contenido en Discord, una plataforma virtual en la que los para compartir multimedia y crear grupos.
Uno de ellos, lo llamó "colegialas". Se estima que reunió a 8 mil seguidores en su momento de mayor tráfico, haciendo circular las imágenes adulteradas de sus compañeras entre gente (en su mayoría varones) de distintas edades.
Leé también
Temas
Lo más
leído