Home > Notícias

Deepfake é usado no pornô contra mulheres e cresce rapidamente

Usados para objetificar o corpo feminino, vídeos baseados em deepfake são usados como "arma contra as mulheres".

Wellington Arruda

08/10/2019 às 12h22

Foto: Shutterstock

A Deeptrace, empresa de segurança cibernética baseada na Holanda, publicou um relatório preocupante sobre a tecnologia que cria o já popular deepfake.

O deepfake, que se apropria de machine learning e inteligência artificial para criar vídeos, pode "simular" o rosto de pessoas em vídeos. A tecnologia também pode ser aplicada na voz, que recentemente resultou em um roubo de quase R$ 600 mil.

Mas, além dos memes, há uma boa (e real) preocupação a respeito dos vídeos de deepfake. Segundo o estudo da Deeptrace, 96% dos vídeos de deepfake publicados na internet são relacionados à pornografia.

Destes vídeos, já foram contabilizadas 134 milhões de visualizações. Desde dezembro de 2018, segundo a empresa, foram encontrados mais de 14.678 vídeos online. No mesmo período do ano anterior, o número era de 7.964, resultando num aumento de 100% ano-a-ano.

A quantidade elevada de visualizações foi contabilizada a partir de quatro dos principais sites de pornografia deepfake. Sites populares de pornografia têm em sua base, de acordo com a pesquisa, 802 vídeos de deepfake.

Seu corpo é realmente seu?

O mais preocupante, entretanto é que todos os vídeos pornográficos tem como principal objeto a imagem feminina. Para Danielle Citron, professora de direito da Universidade de Boston, os deepfakes são usados como arma contra as mulheres. Citron também é autora do livro 'Hate Crimes in Cyberspace'.

Ela relaciona que a tecnologia "está sendo usada como arma contra as mulheres, inserindo seus rostos no pornô". "É aterrorizante, embaraçoso, humilhante e silencioso", diz Citron.

A grande preocupação não é somente com o fato da apropriação de imagem de uma mulher. "Os vídeos de sexo de deepfake dizem às pessoas que seus corpos não são seus", cita a professora. Entre outros, os danos remetem à dificuldade do indivíduo permanecer online, ou até mesmo para conseguir ou manter um emprego.

Também é importante lembrar que vítimas de vídeos deepfake podem não se sentir seguras.

O relatório cita o DeeNude, um programa/app que "tira a roupa das mulheres" em 30 segundos. Ele foi lançado para Windows e Linux em junho de 2019. O app cobrava US$ 50 para remover a marca d'água que indicava se tratar de um conteúdo falso nas imagens.

A jornalista Samatha Cole publicou na Motherboard/Vice, quatro dias após o lançamento do programa, uma matéria sobre a objetificação do corpo feminino causada por ele. Em menos de 24 horas após a publicação, o site recebeu cerca de 545 mil visitas e, posteriormente, o DeepNude foi retirado do ar.

Este, entretanto, é apenas um exemplo de aplicação do deepfake. Em 2017, Cole publicou o que seria o início de uma era de deepfakes; a tecnologia já era usada para criar conteúdo pornográfico.

Fonte: Deeptrace. Via: MIT.

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail