Se, para os profissionais, a imagem é tudo, imagine ter suas imagens adulteradas, colocando você em cenas tórridas de sexo. Agora, imagine isso acontecendo com uma jovem em sua escola. Qual seria o limite desse tipo de ato? E pense: se você é um artista renomado, qual seria o tamanho do dano à sua imagem? Os Deepnudes, uma variação da Deepfake, não encontram limites e parecem estar muito distantes das garras da lei. O pior é que, nesse disparate da sociedade da atenção/desatenção, a crueldade de quem produz as fotos e vídeos sempre encontrará olhos e ouvidos atentos para acreditar no que existe de pior. Ou você achava que era só a sua Tia do Zap que acreditava em Fake News sobre a pandemia ou qualquer outra mentira que os pobres de espírito gostariam que fosse verdade? Claro que não.
Esses criminosos encontraram na Inteligência Artificial um forte aliado na destruição da imagem e da reputação das pessoas.
Que o diga Taylor Swift, que teve suas imagens explícitas divulgadas em redes sociais, através de Deepnudes criados por programas de Inteligência Artificial.
Num primeiro momento, a plataforma X implementou um bloqueio nas buscas pelo nome da artista, de modo que os usuários que tentam realizar a pesquisa se deparam com uma mensagem de erro sugerindo a recarga da página. A medida foi adotada com necessária precaução, tendo a segurança como prioridade.
Lembro que a disponibilidade de suas imagens em redes sociais cria um gigantesco banco de dados para os mal-intencionados, e todo cuidado é pouco, dado o prejuízo que pode acarretar, seja ele financeiro ou a morte de uma jovem afetada com sua imagem alterada por inteligência artificial, espalhada pela fogueira das vaidades e maldades das redes sociais.
É preciso evoluir com tipos penais, pois essa brincadeira tem ficado cada dia menos engraçada.
Para ficar claro, Deepnudes são descrições de imagens, vídeos ou áudios falsos gerados por IA, usados para falar de fotos falsas de pessoas nuas ou em cenários sexuais, utilizadas sempre em postagens não consentidas.
A aplicação frouxa [das regras] afeta desproporcionalmente as mulheres, infelizmente. No Brasil, a criação ou manipulação de imagens com inteligência artificial para fins pornográficos é considerada crime. A legislação prevê pena de detenção de seis meses a um ano e multa para quem produzir tais conteúdos sem o consentimento dos participantes, e reclusão de um a cinco anos para quem os compartilhar.
Casos semelhantes envolvendo a atriz Ísis Valverde e até estudantes em escolas do Rio de Janeiro e Recife destacam a urgência de medidas rigorosas para combater esse tipo de crime virtual.
O fácil acesso a softwares para produção de Deepfakes tem se tornado um verdadeiro pesadelo, afinal, se eles usam inteligência artificial para combinar imagens ou sons humanos e, dessa forma, alterar personagens ou falas em vídeos, conforme aumenta o número de arquivos de áudio e som disponibilizados, cresce o risco de qualquer pessoa ser vítima dessa prática que começou sendo uma brincadeira e vem criando muitos transtornos.
Atualmente, o principal uso dessa tecnologia é para a criação de vídeos de humor, mas ela já foi usada para fraudes e fake news, o que, por sinal, é cada dia mais comum, considerando as milhares de pessoas que estão sempre com a mente aberta para acreditar em mentiras e espalhar inverdades.
Recentemente, estudantes da University College London (UCL) realizaram um estudo sobre as implicações de Deepfakes na segurança online e o resultado desse estudo só faz aumentar as preocupações sobre o tema, conforme reproduzido no canaltech.
Neste momento, existem softwares para a criação de Deepnudes open source e gratuitos, cada vez mais acessíveis, fazendo com que sites como Reddit e Twitter tentem banir todo o conteúdo de Deepnudes por medidas de proteção à informação.
Segundo a matéria reproduzida no canaltech, o objetivo dos estudantes da UCL ao longo da pesquisa era explorar estruturas de vídeos Deepfakes e avaliar a acessibilidade de criação. A conclusão preocupou os pesquisadores, pois mesmo quando a imagem e som de origem não possuem os mesmos formatos de som e movimentos que seriam modificados, os resultados foram aceitáveis.
Softwares para criação de Deepfakes são gratuitos e fáceis de usar, e essa é uma preocupação constante, embora existam obstáculos de estrutura computacional para a criação de resultados aceitáveis (é necessário, no mínimo, uma placa de vídeo como uma GTX 1060).
Ainda são necessárias mais pesquisas, com mais opções de tecnologia. O estudo só nos faz crer na urgência de regulamentar a matéria, pois desde o início da popularização do uso do machine learning para a geração de Deepnudes, o que começou em 2018, a evolução do uso dessa tecnologia tem sido inequívoca.
Atualmente, 96% dos vídeos criados são pornografia e 99% deles usam imagens de atrizes ou cantoras conhecidas. Afinal, para alimentar as fantasias de delirantes de plantão, nada melhor do que a imagem de famosos.
Como se sabe, desde os primeiros casos conhecidos até a expansão do fenômeno, um grande número de páginas pornográficas, das mais conhecidas às menos, foram criadas exclusivamente em torno do fenômeno Deepnudes. Logo, já é possível localizar imediatamente o rosto de qualquer mulher minimamente conhecida sobreposta a cenas pornográficas, com resultados que vão do patético ao praticamente indiscernível. Logo, a veracidade anda de mãos dadas com a maldade.
A atriz Scarlett Johansson, uma das mais atingidas pela prática, considera que, apesar do avanço das ferramentas para identificar tais manipulações, a grande maioria de seus usuários está simplesmente procurando um certo nível de realismo, não "acreditar" em um vídeo cuja origem eles sabem perfeitamente bem que é manipulado. O problema não é a perda de confiança no conteúdo ou na fonte, mas que o usuário não se importa em nada em
saber que o vídeo é sintético. Isso permitiu o desenvolvimento de toda uma indústria em torno do fenômeno dos Deepnudes. Cerca de mil vídeos pornográficos desse tipo são carregados em páginas pornográficas todos os meses e acumulam, em alguns casos, dezenas de milhões de visualizações, gerando benefícios econômicos significativos. Ou seja, o crime virou um negócio, pois como sempre são os lucros que catalisam a prática.
Se, no primeiro momento, eram os políticos que estavam preocupados com as possíveis implicações de vídeos desse tipo em campanhas eleitorais ou para empresas tentando legislar sobre ela, a realidade da web foi avançando e gerou um cenário em que qualquer pessoa pode assumir controle total sobre a imagem de uma pessoa, criar um vídeo em que ela aparece fazendo absolutamente tudo o que o criador quer, distribuí-lo e também ganhar dinheiro com isso, sem praticamente qualquer controle por parte do partido afetado. Basta lembrar do famoso vídeo do Governador João Dória, em que o mesmo aparecia em uma festa íntima e que foi utilizado às vésperas da eleição. Porém, como os afetados são majoritariamente mulheres, estamos falando de um problema de exploração da imagem de terceiros com dimensões que vão da moral à econômica, auxiliadas por uma tecnologia praticamente disponível para qualquer pessoa e também misturadas com a complexa rastreabilidade da rede e a enorme dificuldade de remoção de conteúdo nela.
Se alguém é minimamente conhecido e um fotógrafo captura uma imagem dela sem o seu consentimento, é possível não só que ele possa usar e explorar essa imagem livremente, mas mesmo que o protagonista da foto não possa fazê-lo sem chegar a um acordo com aquele que tirou essa imagem, o que abre espaço para muita discussão.
Como combater? Como evitar que o que é piada para um não seja a desgraça para outro? Tente imaginar o uso disso em imagens de adolescentes espalhadas pela escola.
A Microsoft tem uma ferramenta chamada Video Authenticator, capaz de identificar manipulações em vídeos conhecidas como Deepfake. Num primeiro momento, o software analisa cada quadro de vídeos e gera uma pontuação de manipulação com uma porcentagem indicando as chances de a mídia ter sido alterada.
O Video Authenticator pode exibir uma porcentagem de confiança em tempo real em cada quadro de um vídeo, detectando elementos sutis de edição, como desbotamento de cores e escala de cinza, que não podem ser detectados pelo olho humano.
A Microsoft sabe que os métodos de criação de Deepfakes avançam em sofisticação e que as formas de detecção ainda têm taxas de falha, portanto, espera alimentar sua tecnologia e, a longo prazo, buscar métodos mais fortes para manter e certificar a autenticidade de publicações online.
O uso de Deepnudes tem destruído imagens, e o dano a esse ativo intangível muitas vezes é irreversível. Afinal, ele busca ressonância na mente dos pobres de espírito ávidos por algo que destrua o outro. E isso, mais do que triste, é caso de cadeia.