A mais nova moda da internet pode não ser tão saudável quanto parece.
Os vídeos eróticos falsos com rostos de celebridades em corpos de
atrizes que começaram a surgir no último mês de dezembro agora podem ser
feitos por praticamente qualquer um através de um aplicativo.
Foto: Pornô falso em que colocaram o rosto da atriz Gal Gadot no lugar de uma atriz pornô. |
Pornô falso (ou fake porn) consiste em manipular um vídeo ou uma foto e colocar o rosto de outra pessoa no corpo de uma estrela pornô. Nos últimos meses, um grupo crescente de usuários do reddit tem usado algoritmos de machine learning para colocar o rosto de celebridades em cenas de filmes adultos — como este que abre o post com a atriz Gal Gadot. E agora o negócio escalou para o que parece ser a fase mais pessoal e nojenta dessa técnica.
Os primeiros vídeos feitos foram produzidos com a ajuda de
algoritmos de inteligência artificial por alguém que utiliza o nick de
“deepfakes” no Reddit. As primeiras obras publicadas incluíam filmes
pornográficos falsos com atrizes como Gal Gadot, de Mulher-Maravilha,
Maisie Williams, de Game of Thrones e a cantora Taylor Swift.
O que antes era perigoso, mas restrito, está ganhando proporções cada vez maiores. Foi criado um aplicativo chamado FakeApp, que pode ser baixado por qualquer pessoa para produzir vídeos do tipo. Com o novo aplicativo, novas imagens começaram a surgir, dessa vez com o rosto das atrizes Daisy Ridley, de Star Wars, Emma Watson, da série de filmes Harry Potter e Jessica Alba, de Sin City.
O criador do aplicativo, que utiliza no Reddit o nick de “deepfakeapp”, diz que pretende desenvolver a tecnologia ainda mais. “Eu penso que a versão atual do aplicativo é um bom começo, mas espero refiná-lo ainda mais nos próximos dias e semanas. Eu quero aprimorá-lo a ponto de que um usuário possa selecionar um vídeo em seu computador, baixar uma rede neural correlacionada a um determinado rosto de uma biblioteca pública e trocar no vídeo apertando um único botão”, contou.
Confira algumas imagens falsas produzidas com algoritmos de inteligência artificial:
O Motherboard reportou que usuários no Discord (app para comunidade de gamers) e no Reddit estão pedindo ajuda para fazer falsos vídeos pornô com ex-parceiros e crushes.
Uma pessoa chegou a dizer como eles criaram um desses arquivos com
uma ex-colega de classe. “Eu fiz um vídeo bem bom de uma garota que
estudou comigo na escola usando apenas 380 imagens que eu peguei do
Facebook e do Instagram dela”, informou um usuário no Discord, segundo
uma captura de tela obtida pelo Motherboard.
Embora essas últimas notícias envolvendo vídeos pornô falsos sejam particularmente preocupantes, não surpreende que isso poderia acontecer. É a mistura de comunidades tóxicas online, invasão de privacidade, abuso de ferramentas de manipulação online e pornô de vingança.
Os perigos da prática
A ideia dos entusiastas dos vídeos fake é popularizar tecnologias de
efeitos especiais. Foi feita uma comparação entre a cena original do
filme Rogue One – Uma História Star Wars, onde o rosto da atriz Carrie
Fisher foi recriado digitalmente e a mesma cena realizada com o FakeApp.
O resultado é muito similar e cerca de 200 milhões de dólares mais
barato.
Porém, a nova tecnologia pode ser destrutiva em mãos erradas. Vídeos
feitos por vingança ou para criar notícias falsas e gerar hype na
internet poderiam causar grandes problemas para celebridade, políticos e
mesmo pessoas comuns. Um exemplo disso é um vídeo de um discurso do
presidente da Argentina, Mauricio Macri, que foi sobreposto com as
expressões e traços do ditador nazista Adolf Hitler.
Pornô falso não é algo novo: as pessoas têm explorado ex-parceiros e celebridades online há alguns anos usando softwares de edição como o Photoshop. Porém agora ferramentas mais poderosas, como machine learning, permitem que usuários criem filmagens falsas realistas em questão de horas e com algumas imagens da vítima. E é evidente que este não é um problema de nicho: o subreddit The Deepfakes, uma comunidade dedicada a criar vídeos pornô falsos e outras manipulações, tem mais de 30 mil inscritos.
Lógico, não é simples como baixar um app ou uma ferramenta web e fazer o upload de fotos roubadas do Facebook. Para fazer tais transformações é preciso reunir um monte de imagens. Geralmente, os usuários têm usado uma ferramenta de código aberto que busca por fotos da vítima que estejam publicamente disponíveis online. Depois eles buscam atores ou atrizes pornô que se pareçam com a pessoa.
Embora esta tecnologia seja impressionante, todas as partes
envolvidas nesse caso são péssimas. Nós já vimos em outras ocasiões
campanhas de assédio e invasões grosseiras de privacidade, além disso a
possibilidade de coletar dados de fotos públicas do Facebook já é conhecida.
Ainda que veículos de comunicação tenham alertado sobre o uso dessas
técnicas para a confecção de notícias falsas, é importante também
ressaltar que esta tecnologia pode desencadear a ação de abusadores e a
execução de pornô de vingança.
O que estamos vendo não é necessariamente uma prática nova, mas algo previsível dadas as consequências de colocar pessoas mal-intencionadas em contato com tecnologias sofisticadas. É uma prática contínua emblemática, graças à inteligência artificial, que pode continuar a prosperar da forma como foi destinada.
Continue acompanhando o Portal Vovo GaTu para ficar por dentro de outros conteúdos de entretenimento!
Vovo GaTu
--------------------------------------------------------------------------------------
Enfim, gosta do Portal Vovo GaTu😍? Siga-nos nas redes sociais.
Fique por dentro das noticias, e nao perca nada!😄 Contamos consigo!
Herley costa: