Escândalo abrange 500 escolas e universidades, com várias vítimas menores de idade, envolvendo tecnologia e grupos de bate-papo.
No último sábado (31/8), Heejin recebeu uma mensagem no Telegram de um remetente desconhecido. A mensagem alertava: ‘Suas fotos e informações pessoais foram expostas.’ Essa situação levanta preocupações sobre como a pornografia e o uso de tecnologias como o deepfake podem impactar a privacidade das pessoas.
Com o avanço das técnicas de manipulação, é cada vez mais comum encontrar vídeos e imagens que criam conteúdo pornográfico falso. Essas produções, que utilizam a tecnologia deepfake, podem causar danos irreparáveis à reputação de indivíduos, tornando essencial a discussão sobre a ética e a legalidade do uso dessas ferramentas. A proteção da privacidade é fundamental.
O Impacto da Pornografia Deepfake
Quando a estudante universitária da Coreia do Sul se conectou ao bate-papo para ler a mensagem, deparou-se com uma foto dela mesma tirada anos atrás, enquanto ainda estava na escola. Para sua surpresa, uma segunda imagem surgiu, utilizando a mesma foto, mas de forma sexualmente explícita — e completamente falsa. Apavorada, Heejin, que não é seu nome verdadeiro, optou por não responder, mas as imagens continuaram a chegar. Em todas elas, seu rosto havia sido manipulado e anexado a um corpo realizando atos sexuais, utilizando a avançada tecnologia de deepfake. A pornografia deepfake — que, em sua essência, combina o rosto de uma pessoa real com um corpo sexualmente explícito e falso — está se tornando cada vez mais comum, sendo gerada por meio de ferramentas de inteligência artificial.
Compreendendo a Tecnologia Deepfake
O trauma devastador enfrentado por aqueles cujas imagens são utilizadas em ‘deepfakes’ pornográficos é imensurável. ‘Fiquei petrificada, me senti tão sozinha’, relatou Heejin à BBC. No entanto, ela não estava sozinha. Apenas dois dias antes, a jornalista sul-coreana Ko Narin havia publicado o que se tornaria o maior furo de reportagem de sua carreira. Recentemente, foi revelado que a polícia estava investigando redes de pornografia deepfake em duas das principais universidades do país, e Ko estava convencida de que havia muito mais a ser descoberto.
Ela iniciou uma pesquisa nas redes sociais e encontrou dezenas de grupos de bate-papo no aplicativo de mensagens Telegram, onde os usuários compartilhavam fotos de mulheres conhecidas e utilizavam software de inteligência artificial para transformá-las em imagens pornográficas falsas em questão de segundos. ‘A cada minuto, pessoas enviavam fotos de garotas que conheciam e pediam que fossem convertidas em deepfakes’, disse Ko à BBC.
Grupos de Compartilhamento e o Alvo das Universidades
Ko descobriu que esses grupos não se restringiam apenas a estudantes universitárias. Havia salas de bate-papo dedicadas a escolas específicas do ensino médio e até mesmo do ensino fundamental. Se um número significativo de conteúdo fosse criado usando as imagens de uma aluna em particular, ela poderia até ganhar sua própria sala. Comumente rotuladas como ‘salas de humilhação’ ou ‘salas de amigas de amigos’, essas salas frequentemente impõem termos de entrada rigorosos.
A reportagem de Ko, publicada no jornal Hankyoreh, chocou a Coreia do Sul. Na segunda-feira (2/9), a polícia anunciou que estava considerando abrir uma investigação sobre o Telegram, seguindo o exemplo das autoridades da França, que recentemente acusaram o fundador do aplicativo de crimes relacionados à plataforma. O governo sul-coreano prometeu impor punições mais severas para os envolvidos, e o presidente pediu uma maior educação entre os jovens. O Telegram, por sua vez, afirmou que ‘combate ativamente conteúdo prejudicial em sua plataforma, incluindo pornografia ilegal’, em uma declaração enviada à BBC.
Desvendando o Sistema de Compartilhamento
A BBC teve acesso às descrições de várias dessas salas de bate-papo. Uma delas solicita que os membros postem mais de quatro fotos de alguém, junto com o nome, e assim, a dinâmica de compartilhamento de conteúdo pornográfico falso se intensifica.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo