Unstable Diffusion, IA que gera conteúdo pornográfico, cria mais de 500 mil imagens eróticas por dia

Unstable Diffusion, IA que gera conteúdo pornográfico, cria mais de 500 mil imagens eróticas por dia

Ferramentas de inteligência artificial (IA) estão inundando a internet. E não demoraria muito para que essa tecnologia fosse usada em prol da pornografia. A ferramenta mais bem dotada neste sentido é a Unstable Diffusion. A plataforma é uma extensão do “Stable Diffusion”, um gerador de imagens de código aberto.

Trata-se de um gerador de imagens por IA que tem a capacidade de criar conteúdo NSFW (inapropriado para ambiente de trabalho) e explicitamente pornográfico. Segundo Arman Chaudhry, CEO da plataforma, o Unstable Diffusion gera cerca de 500 mil imagens diariamente. Sem dúvida alguma um número impressionante.

Leia também
O que é Inteligência Artificial Generativa?
O que é deepfake e por que é tão perigoso?

Unstable Diffusion já tem mais de 380 mil usuários

ezgif 5 6ff96dc0cd transformed

Criado como uma alternativa às ferramentas de IA generativa de imagens que possuem restrições de conteúdo, como o Midjourney e o DALL-E, o Unstable Diffusion rapidamente se estabeleceu como uma opção preferida para a criação de conteúdo adulto por meio de inteligência artificial.

O início do Unstable Diffusion remonta a agosto de 2022, com suas primeiras criações sendo compartilhadas no Reddit. Chaudhry, posteriormente, estabeleceu um servidor no Discord para a geração de imagens, atraindo uma comunidade de mais de 380 mil punheteiros entusiastas.

Embora uma tentativa de financiamento coletivo no Kickstarter tenha sido interrompida, a plataforma conseguiu levantar fundos suficientes para lançar um aplicativo que roda inteiramente no navegador. Além de uma versão gratuita, a plataforma oferece planos pagos a partir de US$ 14,99 por mês.

Deepfakes pornográficos são um problema real

deepfake russia ukraine

No entanto, a capacidade de gerar conteúdo erótico por IA não é de todo inofensiva. Pelo contrário. A questão dos deepfakes, onde os rostos em imagens são substituídos pelos de celebridades ou figuras públicas, é uma preocupação real e crescente.

Embora o Unstable Diffusion proíba explicitamente a criação de conteúdo pornográfico envolvendo celebridades, figuras públicas e menores de idade, relatos sugerem que ainda é possível gerar imagens inspiradas em personalidades famosas. De fato, é possível achar imagens pornográficas envolvendo até ex-presidentes circulando no Reddit.

Em resposta a essas alegações, a empresa afirmou que estava lidando com um bug que permitia a criação de imagens com figuras públicas. Mas desde então esse bug foi corrigido.

Além disso, a ferramenta está encontrando seu lugar em um mercado emergente: a venda de imagens sensuais geradas por IA. Há relatos de imagens hiper-realistas criadas por IA sendo vendidas em plataformas como o Reddit.

Fontes: Business Insider e TechCrunch

Sobre o Autor

Avatar de Felipe Alencar
Cearense. 34 anos. Apaixonado por tecnologia e cultura. Trabalho como redator tech desde 2011. Já passei pelos maiores sites do país, como TechTudo e TudoCelular. E hoje cubro este fantástico mundo da tecnologia aqui para o HARDWARE.
Leia mais
Redes Sociais:

Deixe seu comentário

X