PERIGO

Deep Nude: Conheça para se proteger

Quem cria esse tipo de deep nude possivelmente tem intenção de causar danos e abalar a honra do seu alvo. Mas, há quem diga que criou com interesse em "diversão", como o óbvio precisa ser dito, tal prática não pode ser considerada divertida, trata-se de uma conduta ilícita, inclusive a pessoa vai responder por ela.

Publicado em: 08/11/2023 19:11 | Atualizado em: 09/11/2023 19:05

Deep Nude é perigo nas redes sociais (Pexels)
Deep Nude é perigo nas redes sociais (Pexels)

 
Em agosto de 2023 essa coluna do Diario publicou dois artigos, um falando sobre deep fake e outro sobre deep nudes, diante do crescimento da prática  desses crimes.
 
Em novembro de 2023, um grupo de 40 alunas de um colégio privado do Recife denunciou a montagem de fotos com nudez. O caso foi levado à Polícia Civil de Pernambuco, que ficará responsável pelas investigações.
 
Anteriormente, no mesmo mês, alunos de um colégio tradicional do Rio usaram a IA para criar imagens íntimas de meninas; a polícia também investiga o caso, até o momento, mais de 20 vítimas já foram identificadas, segundo reportagem, os envolvidos serão ouvidos e a investigação seguirá seu curso.
 
Importante destacar que o uso de imagem alheia para a prática desse tipo de manipulação, é crime.
Alguns aplicativos, atualmente, usam a inteligência artificial para remover a roupa da foto de determinada pessoa, ou mesmo, para alterar a imagem em um vídeo de sexo, trocando a imagem da pessoa do vídeo por outra enviada ao app, por exemplo. 
 
O agente causador do dano responderá criminalmente e a depender da situação pode ser enquadrado como registro não autorizado da intimidade sexual, previsto no artigo 216-B do Código Penal, na Lei Maria da Penha, difamação, a depender do caso pode se enquadrar em extorsão, é preciso avaliar o caso concreto. No âmbito cível, quando se conhece a autoria, o agente responderá civilmente reparando a vítima com uma indenização, isso acontece quando o crime foi praticado por um ex-companheiro, por exemplo. 
 
Embora qualquer pessoa possa ser vítima desse tipo de criação fake, as mulheres normalmente são as maiores vítimas. Além do grande abalo psicológico e emocional de ver o próprio rosto em uma imagem ou vídeo que expõe uma nudez que não condiz com a realidade, ainda é difícil justificar o fato, pois muitas pessoas sequer conhecem a existência dessa possibilidade.
 
Quem cria deep nude possivelmente tem intenção de causar danos e abalar a honra do seu alvo. Mas, há quem diga que criou com mero interesse em “diversão”, como o óbvio precisa ser dito, tal prática não pode ser considerada divertida, trata-se de uma conduta ilícita, inclusive a pessoa vai responder por ela. 
 
A depender da IA utilizada, a criação fica real suficiente para trazer inúmeras consequências, além de problemas e prejuízos para as vítimas. Essa prática colabora para um ambiente digital hostil e é uma forma de violência contra a mulher.
 
O primeiro aplicativo a ser conhecido foi o DeepNude em 2019, mas depois foi tirado de cena por seu criador. Ele veio a público informando que ia parar de vendê-lo porque “o mundo ainda não estava preparado” para ele.
 
Na verdade, o mundo não precisa desse tipo de criação, as mulheres já têm que lidar com uma infinidade de questões envolvendo a tecnologia e a internet, como pornografia de vingança, stalking, aplicativos espiões, entre outros, para ter mais uma para se preocupar.
 
Segundo o jornal espanhol El País, atualmente há 96 apps do tipo disponíveis para obter “nus convincentes”. Quem usa o aplicativo para tirar a roupa de alguém, normalmente deseja agredir, ou vazar a imagem falsa. 
 
O dano causado é imensurável, a vítima consegue demonstrar que se trata de uma imagem fake, mas a exposição já ocorreu. Ela pode perder seu emprego, ser obrigada a sair da faculdade ou colégio, ter problemas sérios com os pais, e/ou namorado/marido, e a depender do transtorno causado, pode pensar em tirar a própria vida.
 
Por isso, isso não é divertido, não
e brincadeira,  não compartilhe, divulgue, comente, ou exponha, e se tomar conhecimento, denuncie! Pratique a empatia.
 
E se você foi vítima, não perca o equilíbrio, não se desespere, é possível demonstrar que se trata de uma manipulação. Procure uma delegacia, faça um Boletim de Ocorrência, evite acompanhar os desdobramentos nas redes sociais para o bem da sua saúde mental. 
 
Peça ajuda, busque um profissional da área, seja rápida, faça um registro do material para assegurar a prova, seja online em plataformas que registram o ocorrido, como a Verifact ou OriginalMy, ou no cartório com ata notarial lavrada pelo tabelião.
 
Avalie se vale a pena se manifestar publicamente informando que se trata de uma manipulação por inteligência artificial, dando algumas informações sobre o fato, e que está tomando as providências cabíveis.
 
Pais e mães, é preciso considerar o que está sendo contado, por mais que pareça algo difícil de entender ou de acreditar, apoie e fique ao lado da sua filha, não julgue! Esse é o momento de dar força e suporte. 
 
Como a IA “aprende” rapidamente, e de forma célere, isso acaba atrapalhando sistemas que têm por objetivo avaliar se uma foto ou vídeo é fake, pois eles acabam ficando para trás.
 
Contudo, diante do prejuízo causado às vítimas, o deputado federal Marcelo Álvaro Antônio (PL-MG) apresentou um projeto de lei que tipifica o crime de “pornô fake”, para casos de criação, divulgação e comercialização de imagem de nudez ou de cunho sexual não autorizada, gerada por softwares e inteligência artificial (IA).
 
Reitero que, atualmente, o causador do dano já pode responder criminalmente.

COMENTÁRIOS

Os comentários a seguir não representam a opinião do jornal Diario de Pernambuco; a responsabilidade é do autor da mensagem.