Dado o aumento no número de registros com reclamações sobre a criação de conteúdo pornográfico falso, por meio de ferramentas de deepfake, a Coreia do Sul estabeleceu um projeto de lei que punirá não apenas os responsáveis pela geração deste tipo de conteúdo, mas também aqueles que consomem.
A ebuliçã do pornô por IA
O projeto de lei prevê pena de até 3 anos de cadeia para quem assistir esse tipo de conteúdo. Lembrando que, com os recursos provenientes de ferramentas de deepfake, é possível criar vídeos falsos, em que a imagem de determinada pessoa pode ser colocada num contexto que não aconteceu realmente, como uma cena de sexo.
Esse tipo de situação já acontece recorrentemente com celebridades, em que vídeos falsos são associados a elas. Na Coreia do Sul, 53% das pessoas usadas como modelo para vídeos deepfakes são atrizes e cantoras coreanas. Recentemente, a atriz Park Gyu Young, conhecida por seu papel em Round 6, foi vítima da disseminação de conteúdo falso gerado por IA. Seu rosto foi sobreposto em material pornográfico.
Atualmente, os responsáveis por gerar materiais desse tipo já respondem legalmente na Coreia do Sul, podendo receber pena de até 5 anos de prisão e o pagamento de multas que chegam a 50 milhões de won, equivalente a R$ 206 mil, em conversão direta.
Você também deve ler!
Como descobrir se um vídeo é deepfake?
Com o novo projeto de lei, a Coreia do Sul expande a responsabilidade legal para aqueles que armazenam e consomem conscientemente pornografia gerada via IA. Segundo o Korean Times, além de até 3 anos de prisão, o projeto de lei também estabelece uma multa de 30 milhões de wons, cerca de R$ 123 mil em conversão direta.
O impacto do deepfake na Coreia do Sul
Esse projeto é apenas uma das medidas que a Coreia do Sul está promovendo na contenção da disseminação de conteúdo sexual gerado por IA. Somente em 2024, mais de 800 boletins de ocorrência foram protocolados no país por crimes sexuais relacionados a deepfake, resultando na prisão de quase 400 suspeitos.
Desde 2021, ano em que a coleta de dados sobre casos de deepfake começaram a ser contabilizados no país, houve um salto de 160 crimes sexuais para 297 nos primeiros meses de 2024.
Recentemente, o presidente da Coreia, Yook Suk Yeo, declarou que conteúdo sexual gerado por IA “é a exploração da tecnologia baseada na proteção do anonimato. E um claro ato criminoso”.
A idade da maioria dos suspeitos também chama atenção. 83.7% dos responsáveis por esse tipo de conteúdo são adolescentes. Mais de 60 dos suspeitos tinham menos de 14 anos, o que impossibilita a responsabilidade legal. 13% dos suspeitos são maiores de idade, na casa dos vinte e poucos anos.
Uso de deekfake também está crescendo no Brasil
Segundo o relatório Sumsub Identify Fraud Report 2023, que fez uma análise de mais de 2 milhes de tentativas de fraudes em 224 países e territórios e em 28 segmentos, o Brasil registrou um aumento de 830% no uso de deepfake entre 2022 e 2023.
Deixe seu comentário