Publicações Populares

Escolha Do Editor - 2024

Não acredite em ninguém: O que ameaça a rede neural, fazendo porno

Dmitry Kurkin

Vídeos pornôs falsosem que a estrela do filme "Mulher Maravilha", Gal Gadot, supostamente fazendo sexo com seu meio-irmão, que apareceu na Web esta semana, acabou não sendo apenas uma farsa, mas uma farsa gerada pela inteligência artificial.

O autor do vídeo, um usuário anônimo do reddit com o apelido deepfakes, em entrevista ao Vice, confirmou que usou a rede neural para “tirar uma foto” do rosto de Gadot para o corpo da atriz pornô. O falso, em geral, é perceptível, e as profundezas não planejaram ganhar dinheiro com isso - ele disse, ele só queria verificar como seria fácil fazê-lo usando AI. E ele tem más notícias para nós: era muito fácil fazer pornografia falsa em casa.

O problema, em geral, não está nos próprios pornofeaks: a demanda por fotos e vídeos, onde atores e atrizes de celebridades fazem sexo, foi, é e será com os fetichistas e amantes sensacionais. Sobre a semelhança externa com as estrelas da indústria pornográfica, carreiras inteiras estão sendo feitas - esse fenômeno até deu origem a uma excelente manchete da imprensa amarela: "Anão pornô anão Gordon Ramsay descoberto morto em um buraco de texugo".

Mas, se antes a produção precisava de tempo, recursos e algum tipo de habilidade, então uma rede neural, treinada para soldar faces em uma imagem, simplifica bastante a tarefa. Robôs não são homens, e os robôs ficam mais espertos de vez em quando, o que significa que as falsificações parecerão cada vez mais confiáveis. O usuário deepfakes esclareceu que ele coletou seu software de IA dos elementos de sucata encontrados nas bibliotecas de código aberto, e tirou fotos e vídeos em drenos públicos e hospedagem como o YouTube. Simplificando, todas as ferramentas para gerar pornofeikov estavam sob o seu nariz, não só com ele, mas entre milhões de pessoas em todo o mundo.

E isso, estritamente falando, nem mesmo notícias. Em 2003, especialistas da Universidade de Oregon Health and Science alertaram que as fraudes de áudio são "fáceis de fazer e difíceis de determinar". Em 2017, a previsão se tornou realidade, e houve falsas gravações de voz geradas por redes neurais que são muito difíceis de distinguir das reais. Após o áudio, o vídeo foi retirado. O desenvolvimento da equipe da Universidade de Washington sincroniza as expressões faciais do rosto de uma pessoa com seu discurso: no videoclipe com Barack Obama exposto por exemplo, apenas o áudio está presente, a imagem é gerada pelo programa. Conecte-se um ao outro - e agora há vídeos falsos prontos em que, digamos, um conhecido político liberal "confessa" suas simpatias por Hitler.

É preciso um pouco de imaginação para imaginar como os abusos podem levar a essa inteligência artificial - os chatbots da Microsoft, que os trolls do Twitter se tornaram racistas em menos de um dia, parecerão uma bela peça contra eles. E, claro, a tecnologia da pornofeed não é ameaçada principalmente por Gal Gadot, Taylor Swift ou Jennifer Lawrence. Eles estão suficientemente seguros para contratar um exército de especialistas em TI que reconhecem uma farsa e uma frota de advogados que processarão qualquer um que tentar usar essas falsificações para ganho pessoal.

Não, simples mortais se tornarão vítimas de novos algoritmos inofensivos. As falsificações digitais podem ser usadas para pornografia, cyber-stalking, assédio de rede, chantagem e manipulação por pessoas que são facilmente sugestionáveis ​​e não acompanham as notícias do campo de tecnologias avançadas ("Sua filha foi filmada, transfira dinheiro imediatamente, senão TUDO será visto"). E não estamos necessariamente falando de pornografia: falsificações também podem ser lançadas na Rede para propaganda política e incitação ao ódio.

"Mas isso é monstruoso!" Sim, monstruoso, e não é o codificador de deepfakes que é o culpado. Como os hackers às vezes invadem os sistemas bancários para não roubar dinheiro, mas para apontar o departamento de defesa cibernética em falhas de segurança, ele foi inventado por um programador AI anônimo que nos coloca diante de um fato: a era das falsificações digitais não é uma história de terror antiutópica "Black Mirror" e a realidade que se aproxima. Ainda não foi compreendido pela ética moderna (os pornófilos podem ser considerados como uma invasão da privacidade de outras pessoas?), Nem pela lei em vigor. Mas é nela que de alguma forma temos que viver nos próximos anos. Então, é necessário desenvolver um antídoto contra tal recheio.

Os curadores do dicionário de Collins chamaram o termo "notícias falsas" como a expressão de 2017, enfatizando que o usuário médio é viciado em cliques e repassa manchetes sensacionais sem perder tempo para verificar a autenticidade das informações. Enquanto isso, notícias falsas podem influenciar os resultados de eleições e referendos. E isso também faz parte da nova realidade em que já existimos e na qual precisaremos aprender a ser menos frívolos.

As redes sociais já transformaram a Internet em uma casa com paredes de vidro, onde milhões de pessoas podem assistir sua vida todos os dias - mesmo quando você não quer. Agora é óbvio que não há portas nesta casa: qualquer um pode tentar invadir seu espaço pessoal, usando AI para estragar seu rosto no pornorol ou no filme “O Senhor dos Anéis”. A privacidade está morta, mas não apenas o Big Brother é culpado disso na forma de serviços especiais e corporações globais, mas também de nós mesmos.

O mundo das falsificações digitais está chegando, mas isso não é motivo para pânico, paranóia, recusa em usar a Internet ou os requisitos para proibir redes neurais. Esta é uma razão para pensar sobre a higiene da rede e a nova ética, que consertará de uma vez por todas que usar a imagem de outra pessoa para criar um falso digital é vil e ilegal. Os tempos em que as pessoas acreditavam incondicionalmente tudo o que dizem na TV (mesmo que digam que "Lenin era um cogumelo") estão desaparecendo. Da mesma forma, gradualmente nos acostumamos a descrer de tudo o que está escrito na Internet.

Capa:Registros de urdidura

Deixe O Seu Comentário