
La Asamblea Nacional de Corea del Sur dio un gran paso en la lucha contra el uso abusivo de la inteligencia artificial (IA) al aprobar un proyecto de ley que penaliza la posesión o visualización de imágenes o videos “deepfake” con contenido sexual explícito. Proyecto que entró en vigor de manera inmediata.
Esta medida forma parte de una enmienda a la Ley Especial de Sanción de Delitos de Violencia Sexual, que establece penas de hasta tres años de prisión o multas de 22,600 dólares para quien posea, compre, almacene o vea este tipo de material.
¿Hablamos de #deepfake y de la que se está liando en Corea del Sur por este tema en los institutos?
— Friki Mamá (@MellamanSiL) August 28, 2024
Para empezar, mirad estos mapas de Corea del Sur.
Son los centros educativos en las que los alumnos han creado imágenes de explotación sexual infantil de sus compañeras+ pic.twitter.com/FrHUE7jHFD
Además, la normativa ahora contempla penas más severas para quien decida crear este material, con penas de hasta siete años de prisión o una multa de 37,800 dólares, independientemente de la intención.
Actualmente, la policía surcoreana está investigando 513 casos de delitos sexuales con relación a la IA. Las autoridades indicaron que entre enero y septiembre de este año, se detuvieron a 318 personas por delitos sexuales digitales, de los cuales 78.9 % eran adolescentes.
Las autoridades también comenzaron una investigación en contra de la plataforma de mensajería instantánea Telegram, a quien acusan de “complicidad” en los delitos relacionados con imágenes “deepfake”, esto después de que los medios locales indicaran que el contenido sexual falso generado por IA es común en los chats de la aplicación.