Unstable Diffusion, IA que gera conteúdo pornográfico, cria mais de 500 mil imagens eróticas por dia

Ferramentas de inteligência artificial (IA) estão inundando a internet. E não demoraria muito para que essa tecnologia fosse usada em prol da pornografia. A ferramenta mais bem dotada neste sentido é a Unstable Diffusion. A plataforma é uma extensão do “Stable Diffusion”, um gerador de imagens de código aberto.

Trata-se de um gerador de imagens por IA que tem a capacidade de criar conteúdo NSFW (inapropriado para ambiente de trabalho) e explicitamente pornográfico. Segundo Arman Chaudhry, CEO da plataforma, o Unstable Diffusion gera cerca de 500 mil imagens diariamente. Sem dúvida alguma um número impressionante.

Leia também
O que é Inteligência Artificial Generativa?
O que é deepfake e por que é tão perigoso?

Unstable Diffusion já tem mais de 380 mil usuários

ezgif 5 6ff96dc0cd transformed

Criado como uma alternativa às ferramentas de IA generativa de imagens que possuem restrições de conteúdo, como o Midjourney e o DALL-E, o Unstable Diffusion rapidamente se estabeleceu como uma opção preferida para a criação de conteúdo adulto por meio de inteligência artificial.

O início do Unstable Diffusion remonta a agosto de 2022, com suas primeiras criações sendo compartilhadas no Reddit. Chaudhry, posteriormente, estabeleceu um servidor no Discord para a geração de imagens, atraindo uma comunidade de mais de 380 mil punheteiros entusiastas.

Embora uma tentativa de financiamento coletivo no Kickstarter tenha sido interrompida, a plataforma conseguiu levantar fundos suficientes para lançar um aplicativo que roda inteiramente no navegador. Além de uma versão gratuita, a plataforma oferece planos pagos a partir de US$ 14,99 por mês.

Deepfakes pornográficos são um problema real

deepfake russia ukraine

No entanto, a capacidade de gerar conteúdo erótico por IA não é de todo inofensiva. Pelo contrário. A questão dos deepfakes, onde os rostos em imagens são substituídos pelos de celebridades ou figuras públicas, é uma preocupação real e crescente.

Embora o Unstable Diffusion proíba explicitamente a criação de conteúdo pornográfico envolvendo celebridades, figuras públicas e menores de idade, relatos sugerem que ainda é possível gerar imagens inspiradas em personalidades famosas. De fato, é possível achar imagens pornográficas envolvendo até ex-presidentes circulando no Reddit.

Em resposta a essas alegações, a empresa afirmou que estava lidando com um bug que permitia a criação de imagens com figuras públicas. Mas desde então esse bug foi corrigido.

Além disso, a ferramenta está encontrando seu lugar em um mercado emergente: a venda de imagens sensuais geradas por IA. Há relatos de imagens hiper-realistas criadas por IA sendo vendidas em plataformas como o Reddit.

Fontes: Business Insider e TechCrunch

Postado por
Siga em:
Compartilhe
Deixe seu comentário
Img de rastreio
Localize algo no site!