Technologie

[Fausses vidéos à caractère sexuel] La Corée du Sud vote une loi pour punir les cas de deepfake pornographique


En Corée du Sud, la loi s’adapte à une nouvelle forme de harcèlement : les deepfake pornographiques. Cette législation fait suite aux révélations il y a un mois d’un vaste réseau d’échange de fausses vidéos à caractère sexuel modifié par intelligence artificielle mettant en scène des femmes, cette fois bien réelles, y compris des mineures.

Un vote presque à l’unanimité pour rapidement adapter la loi coréenne à cette forme de harcèlement qui évolue aussi vite que la technologie. Le scandale des deepfake pornographiques avait révélé le manque total de loi dans ce cas de violence sexuelle en ligne, qui n’était donc pas condamnable.

Entre 2021 et juillet 2024, 793 délits liés aux deepfakes ont été signalés, mais seulement 16 personnes ont été arrêtées et poursuivies, selon les données de la police. Les plaintes se sont néanmoins multipliées après l’éclatement du scandale, avec 118 dépôts en seulement cinq jours fin août et sept personnes arrêtées dans le cadre d’une opération menée par la police. Une seule d’entre elles était majeure.

22 000 euros d’amendes

Désormais, la possession, revente et consommation de plein gré de ce type de contenu est sanctionné d’au moins trois ans de prison et de 22 000 euros d’amendes.

Un progrès poussé aussi bien par le gouvernement que l’opposition. Ce texte rend par ailleurs l’État responsable de la suppression de ces vidéos en ligne et l’oblige aussi à ouvrir des centres d’aide aux victimes. Des centaines de milliers de Sud-coréennes, y compris des mineures, disent avoir été victime de ce genre de harcèlement.

Si la loi évolue, la question reste en suspens sur l’application de celle-ci. La Corée du Sud dispose déjà de sanctions contre d’autres formes d’agression sexuelle, mais les peines sont rarement appliquées. D’après une étude de 2019, 60% des affaires de viol se concluaient par un sursis pour l’accusé.

Selon la start-up de cybersécurité Security Hero, le nombre de ces montages à base d’IA a augmenté de 500% en 2023 et 99% des victimes sont des femmes, souvent des chanteuses et actrices célèbres. Cette année, d’importants labels de K-pop, JYP Entertainment et ADOR, qui gèrent notamment les groupes Twice et NewJeans, ont annoncé vouloir lancer des actions en justice pour protéger leurs artistes.

Source : Rfi

Commentaires

commentaires


Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.