Deepfakes: Os vídeos que simulam cenas são nova ameaça à informação

Você já ouviu falar de deepfakes? O assunto está em alta graças à novela ‘Travessia’, recém-estreada na TV Globo.

Independente da resposta, imagine o seguinte cenário: o ano é 2020 e a situação diplomática entre Estados Unidos e Coreia do Norte é tensa. Uma rede de TV recebe um vídeo inédito, de fonte anônima, que mostra o líder Kim Jong-un discutindo com generais o lançamento de um ataque nuclear.


Na Casa Branca, o vídeo é analisado, mas a inteligência não consegue verificar a autenticidade. O presidente americano tem de agir – e ordena um contra-ataque. Uma guerra começa.

 

O pesquisador Giorgio Patrini, da Universidade de Amsterdã, na Holanda, imaginou o cenário acima para alertar sobre uma preocupante modalidade de informação falsa: os deepfakes.

São vídeos que simulam cenas aplicando técnicas de inteligência artificial a imagens existentes. Até pouco tempo, o fenômeno se restringia ao mundo de filmes adultos.

 

Entretanto, com a criação de novas tecnologias, existe a preocupação entre especialistas de que filmagens falsas possam comprometer também o processo eleitoral e outros aspectos da vida moderna.rna.


“Se houver incentivo financeiro ou político suficiente para que atores mal-intencionados façam isso, é inteiramente possível que a fabricação de vídeos seja usada em futuras campanhas políticas”, diz Patrini, que trabalha no Delta Lab (Deep Learning Technologies Amsterdam), da Universidade de Amsterdã e Bosch.

 

Patrini afirma que, de tão forte o impacto de um vídeo falso, a mensagem manipulada tende a ser aceita por quem quer acreditar nela – mesmo que comprovada a falsidade.

“Os psicólogos nos advertem de duas falácias humanas: a tendência a acreditar em informações falsas após exposição repetida (efeito de verdade ilusório) e a acreditar em informações falsas quando apenas confirmam nossas crenças anteriores”.


O cientista da computação brasileiro Virgilio Almeida, professor associado de Harvard, alerta, no entanto, que a produção de vídeos falsos sem grande refinamento já é acessível hoje.

“Se pensarmos que já em 2014 usaram bots (redução de robôs em inglês), isso certamente vai ser utilizado. Mas as pessoas acreditam muito no que veem. Muitos não vão acreditar, mas muitos vão. O processo eleitoral passa a ser muito levado por isso”, afirmou ele.

 

Se as eleições deste ano já podem ter o rebuliço do compartilhamento de vídeos falsos, Patrini salienta que as possíveis repercussões da manipulação audiovisual vão além da política.

Considere, por exemplo, o uso de áudios e vídeos como provas em processos criminais. Se não pudermos mais confiar em sua autenticidade, como poderemos aceitá-los como evidência?

 

Soluções para deepfakes

Se o prognóstico das deepfakes é pessimista, isso se dá, em grande parte, porque ainda não há técnica desenvolvida para identificar os audiovisuais falsos.

“É muito difícil descobrir vídeos falsos e não existe detectores em larga escala. As técnicas de perícia digital estão muito atrás”, aponta Almeida.

 

Patrini sugere que a tecnologia de defesa contra deepfakes siga dois caminhos. O primeiro seria a criação de uma assinatura digital em vídeos – análoga a marcas d’água em notas de dinheiro -, que garantiria a autenticidade da câmera que deu origem a um filme e a ausência de edições.

No entanto, uma assinatura digital seria invalidada por qualquer tipo de edição, mesmo os “benignos” – incluindo mudança de contraste e pequenos cortes. Além disso, não haveria como assegurar a veracidade de vídeos antigos, anteriores a uma possível implementação de assinaturas.

 

Outra solução vai na linha do “feitiço contra o feiticeiro”: usar inteligência artificial e machine learning para criar detectores de vídeos falsos. A ideia é treinar computadores para identificar sinais de adulteração que seriam invisíveis a olhos humanos. O pesquisador considera esta a melhor opção.

“Assim como o aprendizado de máquina nos possibilita meios poderosos de manipulação da mídia, ele pode resgatar e trabalhar como um discriminador, informando-nos quando o conteúdo audiovisual parece ser uma falsificação”.

 

Continue acompanhando o Portal Vovo GaTu para ficar por dentro de outros conteúdos de entretenimento!


Fonte:
Vovo GaTu


--------------------------------------------------------------------------------------
Enfim, gosta do Portal Vovo GaTu😍?
Siga-nos nas redes sociais. 
Fique por dentro das noticias, e nao perca nada!😄 Contamos consigo!

Assine as notificações de Feed do Site ou entre em nosso Canal de  Noticias no Discord, há, e nos adicione ãos favoritos do seu navegador.

Conheça nossa EquipeHerley costa:
É o editor chefe e criador do canal do Vovo Gatu, supervisiona todos os conteúdos publicados diariamente, mas faz um pouco de tudo, desde notícias, análises a vídeos, tutoriais e lives para o nosso canal do Youtube. Gosta de experimentar todo o tipo de jogos, mas prefere, mundos abertos e jogos online com longa longevidade. Um grande apaixonado por vídeo games e filmes desde criança, nunca deixou de jogar ou assistir um filme praticamente por todos os dias desde que se conhece por gente.

Me siga nas redes sociais
Clique para abrir meu FacebookClique para abrir meu InstagramClique para abrir meu TwitterClique para abrir meu canal do YoutubeClique para abrir meu LinkedinClique para abrir meu perfil de musica no DeezerClique para abrir meu grupo no WhatsappClique para abrir meu perfil no PinterestClique para abrir meu perfil no VKontakte - VKClique para abrir meu perfil de musica no SpotiFy
--------------------------------------------------------------------------------------
Postagem Anterior Proxima Postagem