FAKE: manipulação e ética digital | LUCILA VILELA

Body: 

english

O desenvolvimento acelerado das tecnologias de comunicação e informação interferiu na maneira de criar, registrar, armazenar e compartilhar fotografias, vídeos, links e opiniões gerando a diluição de fronteiras entre ficção e realidade, falso e verdadeiro.

Fakenews, deepfakes, perfis e cliques falsos povoam o território líquido da internet. No universo online, as imagens e informações são maleáveis e por isso manipuláveis, apresentando ao mesmo tempo um aspecto sedutor e assustador.

É o caso, por exemplo, das deepfakes, tecnologia que utiliza a inteligência artificial para transferir rostos e vozes em corpos de outras pessoas. Essas montagens são realistas e facilmente acreditáveis, podendo provocar discussões tanto na questão da liberdade de expressão quanto na implicação de danos morais. 

As deepfakes são muitas vezes humorísticas: vídeos cômicos que brincam com o rosto ou voz de uma pessoa no corpo de outra criam situações inusitadas. Tais como os vídeos criados pelo brasileiro Bruno Sartori que satirizam figuras políticas e celebridades.

No vídeo “Animação de imagens usando inteligência artificial”, Sartori oferece uma amostra da criação das deepfakes.

Bruno Sartori: Animação de imagens usando inteligência artificial

O vídeo criado a partir do artigo First Order Model for Image Animation, de Siarohin et.al., apresenta uma explicação detalhada do funcionamento do sistema de inteligência artificial.

First Order Model for Image Animation:

Contudo, esse tipo de montagem também tem sido aplicada para fins mais perversos gerando uma serie de problemas éticos e morais.

O termo deepfake (deep learning + fake) surgiu em 2017 quando um usuário do Reddit, usou como pseudônimo para postar um vídeo pornográfico envolvendo o rosto das atrizes Emma Watson e Gal Gadot. A montagem falsa acendeu questões de invasão e violação de privacidade.

Diante do interesse nesse tipo de artifício, muitos sites de conteúdo adulto estão incorporando a tecnologia do deepfake. A falsidade ou veracidade das cenas parece não interferir no prazer de quem consome o conteúdo; e esse é o argumento da indústria pornográfica para defender o uso dessa tecnologia. Além da fusão de identidade, os clientes ainda podem criar cenas de relações sexuais com suas celebridades favoritas. O problema é que o uso de imagens sem devida autorização pode causar graves consequências de danos morais.

Outro uso de deepfake que apresenta um sério agravante na questão ética são os vídeos que apresentam falsos discursos atribuídos às figuras políticas. Esses vídeos podem confundir pessoas que não estão familiarizadas com a linguagem.

Um exemplo é o vídeo em que o ex-presidente Barack Obama pronuncia um discurso inventado por outra pessoa. Com o sistema de inteligência artificial foi possível transformar as expressões de um ator no rosto de Obama, e a voz foi alterada por um software capaz de reproduzir um timbre idêntico ao da voz do ex-presidente.

Ou seja, com a inteligência artificial é possível fazer com que qualquer pessoa diga qualquer coisa, inclusive o que essa pessoa jamais diria. E isso se faz acreditavelmente.

O ator e diretor americano Jordan Peele que realizou a deepfake de Obama, chegou a fazer um vídeo utilizando a mesma imagem do ex-presidente para alertar sobre os perigos das deepfakes. O Obama que aparece no vídeo é na realidade Jordan Peele com efeitos manipulados pela inteligência artificial. Todas as informações são falsas. Mas mesmo com essa explicação, o vídeo tem confundido muita gente.

Esse vídeo foi legendado em português e postado no YouTube pela empresa BuzzFeed Brasil com a chamada: “você não vai acreditar no que o Obama fala nesse vídeo!” A postagem do vídeo subido sem qualquer explicação do conteúdo e com uma chamada alarmante típica das estratégias de fakenews, gerou muito desentendimento, como se pode perceber nos comentários.

Deepfake Obama:

O teor dos comentários sobre esse vídeo no Brasil demonstra cada vez mais a necessidade de alfabetização digital para que se desenvolva o processo cognitivo.

Cada nova tecnologia pode apresentar uma parte útil e outra nociva. A consciência ética de cada pessoa que tem acesso a essas ferramentas é determinante para que a humanidade possa avançar socialmente. No entanto, sabe-se que essa ética nem sempre é respeitada, e cabe às pessoas detectarem a veracidade das informações que circulam no escorregadiço meio digital.

Exemplo de deepfake em imagem de Donald Trump

Detectar uma deepfake não é muito simples. Alguns vídeos fazem falsificações grosseiras, fáceis de identificar, mas outros são extremamente refinados e realistas e talvez não sejam perceptíveis ao olhar. 

Ao mesmo tempo em que a deepfake é aprimorada, uma tecnologia para detectar conteúdos falsos está sendo desenvolvida.

Técnica para detectar deepfake:

Um aplicativo como o Impressions pode popularizar a deepfake nas redes sociais fazendo com que qualquer pessoa produza um conteúdo de deepfake sem grandes esforços.

“Mostre suas habilidades de imitação, recrie cenas clássicas, crie novos memes e trocas de rostos de celebridades. Compartilhe-os com seus amigos e familiares nas redes sociais”, diz o app.

Aplicativo Impressions:

Deepfakes mais realistas exigem noções básicas de deeplearning, acesso aos algoritmos e um bom processador gráfico.

Mas enquanto a corrida entre o avanço da tecnologia e os detectores de conteúdo falso se desenvolve paralelamente, a formulação de leis se arrasta. Assim resta se apoiar no discernimento ético e na verificação por meio da pesquisa.

Se nas últimas eleições a disseminação de fakenews contribuiu para os resultados, com as deepfakes esse problema poderá se agravar. Estratégias políticas costumam não ter escrúpulos na hora de enganar o eleitor.

O documentário Privacidade Hackeada (The Great Hack), de Karim Amer e Jehane Noujaim (Netflix: 2019), evidenciou a estratégia empresarial de difusão de fake news utilizada para influenciar as decisões eleitorais dos Estados Unidos em 2016. O documentário revela o escândalo da empresa Cambridge Analytica que usou ilegalmente os dados de milhões de usuários do Facebook, para induzir as escolhas políticas.

A mesma estratégia influenciou as eleições presidenciais de 2018 no Brasil com a diferença da plataforma. Se nos Estados Unidos as fake news se disseminaram através do Facebook, no Brasil aconteceram através do Whatsapp. A estratégia utilizada é a do antigo método de manipulação emocional a partir da incitação do ódio e do medo.

Trailer: Privacidade Hackeada (Netflix, 2019)

O maior problema das fake, no entanto, não é a probabilidade de engano e sim o fato que para a maioria das pessoas não importa se a informação é falsa, desde que seja compatível com suas opiniões. Ou seja, se o discurso da notícia ou do vídeo coincidir com o que a pessoa pensa, ela repassa sem se preocupar se é verdadeiro ou falso; repassa como se fosse um argumento para aquilo que acredita. O que segue então é uma propagação de opiniões pessoais disfarçadas de noticias verdadeiras.

O cartunista argentino Daniel Paz ilustrou bem essa questão: “como pode a notícia ser falsa se é justamente o que eu penso?”

Essa notícia, de Daniel Paz, 2020.

A atuação de hackers e a manipulação de usuários da internet podem chegar a níveis extremos, como mostra o filme polonês Rede de Ódio (The Hater), do diretor Jan Komasa (Netflix: 2020).

Rede de Ódio conta a história de um hacker ressentido por ser expulso da faculdade por plágio. O plágio é percebido também em seu discurso, nos momentos em que copia as falas de outros personagens. Trabalhando para uma agência especializada em manipulação da opinião pública nas redes sociais, o protagonista Tomasz Giemsa (Maciej Musialowski) se infiltra na campanha eleitoral para derrubar o candidato à prefeito de Varsóvia que defendia pautas de respeito à diversidade de gênero e racial.

A aparência de menino jovem e loiro com o discurso de bom moço esconde um hacker com perfil de stalker psicossocial e domínio das táticas de manipulação emocional. Na narrativa Tomasz Giemsa consegue arquitetar um plano em que as ações do mundo virtual interferem nos fatos reais, resultando em uma enorme tragédia.

Trailer: Rede de Ódio (Netflix, 2020)

A professora e pesquisadora Giselle Beiguelman adverte que esse tipo de conduta está se tornando uma estratégia comum de um tecnopopulismo ultra autoritário que se vale dos recursos online e das diretrizes frouxas das maiores redes sociais e plataformas como o Twitter, Facebook, Instagram e YouTube.

O filme Rede de Ódio aborda um problema que a pesquisadora Cynthia M.Wong alertou no documentário O Dilema das redes (Netflix, 2020): “uma das implicações mais preocupantes sobre os governos e outros agentes transformarem as mídias sociais em arma, é que isso causa danos reais no mundo off-line”.

O documentário O Dilema das redes apresenta depoimentos de especialistas sobre o poder de manipulação através das redes sociais. De acordo com Tristan Harris, designer ético do Google e co-fundador do Centro de Tecnologia Humana, “a tecnologia persuasiva tem o intuito de ser aplicada ao extremo, buscando a mudança no comportamento das pessoas”.

Tristan Harris conta que existe um campo de estudos chamado “growth hacking”, ou seja, equipes de engenheiros cujo trabalho é a modificação psicológica para gerar crescimento através do engajamento dos usuários”.

O cientista computacional Jaron Lanier percebe que:

“criamos um mundo em que se tornou fundamental ter conexões virtuais, principalmente para as gerações mais novas. Então criamos uma geração global de pessoas que crescem dentro de um contexto em que o significado de comunicação e o significado de cultura estão atrelados à manipulação”.

Trailer: O Dilema das Redes (Netflix, 2020)

As informações disseminadas através de perfis falsos, a participação de robôs e de profissionais que incitam à violência culminam em desastres. A criação de perfis e rostos falsos não exige nenhuma complexidade, é preciso apenas saber onde encontrar.

Os perfis podem ser obtidos em sites como This person does not exist (Essa pessoa não existe) e Fake name generator (Gerador de perfil falso) em que algoritmos conseguem gerar combinações irreais.

Essa pessoa não existe  (https://thispersondoesnotexist.com/)

Perfis falsos  (https://www.fakenamegenerator.com/)

O uso de identidade falsas, as artimanhas políticas, as manipulações fotográficas e as distorções de discursos não são novidades na história da humanidade. Assim como entende a pesquisadora Renée Diresta “manipuladores políticos sempre existiram. Mas as plataformas atuais possibilitam a disseminação de narrativas manipulativas com uma facilidade fenomenal gastando pouquíssimo dinheiro”

O que muda são as ferramentas e o tempo de entendimento cognitivo das novas linguagens. O boato ou a mentira que antes se dispersava com o vento do bairro, começou a se materializar com o advento das técnicas de reprodutibilidade. Foi na Revolução Francesa e também em Londres no século XVIII que as notícias falsas tiveram seu apogeu. O surgimento da imprensa e a distribuição de panfletos, pasquins e jornais contribuíram para a divulgação de mentiras que interferiram nas decisões políticas.

Também a imagem fotográfica desde seu surgimento foi manipulada. O fotógrafo equatoriano José Domingo Laso (1870-1927) no início do século XIX, raspava placas de vidro para eliminar os indígenas que apareciam nas fotografias nos espaços públicos da cidade de Quito. No lugar dos borrões, inseria vestidos brancos e chapéus de abas largas, colaborando assim para o olhar branco e elitizado almejado pela repulsiva política higienista da época.

Fotografia de José Domingo Laso, Teatro Sucre, do livro Quito a la vista, 1911. Detalhe.

É sabido também que Stalin retirava pessoas de suas fotografias a medida em que se deixavam de ser aliados. Trotsky, por exemplo, foi eliminado de várias fotografias em que estava ao lado de Stalin quando as divergências políticas se acentuaram. Da mesma maneira que o oficial da polícia Nikolai Yezhov.

Na foto original: Nikolai Yezhov está à direita de Josef Stalin. Na foto editada no regime stalinista, Yezhov foi apagado (1937).

A prática de adulterar fotos sempre foi comum e nunca deixou de ser usada em estratégias políticas. Há uma infinidade de mentiras que circulam em muitos documentos históricos.

No Brasil, um exemplo é a fotografia do jornalista Wladimir Herzog que na época do regime militar apareceu nos jornais como se tivesse cometido suicídio, quando na verdade havia sido assassinado.

Em 1987, um comercial do jornal Folha de São Paulo mostrou como é possível “contar um monte de mentiras dizendo somente a verdade”. A publicidade revela o poder da fonte de informação que não só pode criar falsas notícias como também pode induzir a uma falsa verdade apenas alterando a maneira de contar a história.

Comercial Folha de São Paulo, direção de Andrés Bukowinski (1987)

Durante muito tempo acreditou-se no caráter documental de fotografias e vídeos. O documental, no entanto, não pode ser atribuído somente ao meio técnico, são as fontes que conferem credibilidade ao material.

A falsificação de imagens e vídeos com aspecto de documental tem sido cada vez mais verossímil. Na internet muitas informações saltam de um site ao outro sem controle, retiradas de contexto e sem a fonte original. Assim falsas informações disfarçadas de notícias se alastram com velocidade. Como observa José Luís Pardo a tecnologia digital aumentou nossa capacidade de nos enganar.

As deepfakes já tinham aparecido em grandes produções cinematográficas, mas para isso foi preciso um investimento de milhões de dólares e meses de trabalho; agora com o uso da inteligência artificial o custo é quase zero e o tempo é praticamente imediato.

Os estúdios da Disney, por exemplo, já estão acelerados em pesquisas que aprimoram a técnica e a resolução das deepfakes. O desenvolvimento da tecnologia contribui para o avanço das pesquisas no segmento das artes visuais; e vem sendo incorporado na indústria do entretenimento, no cinema, nas restaurações de filmes e em produções artísticas.

Restauração de vídeo com inteligência artificial

Desta forma é preciso saber extrair os aspectos positivos dos avanços tecnológicos. O filósofo Pierre Lévy entende que a internet não é responsável por essa onda contemporânea de populismo ou de governos ultraconservadores. Nos anos 1930 e 1940 a internet não existia e tivemos uma onda absolutamente terrível de regimes totalitários. A propaganda existe desde o início da política. Por isso, não se pode acusar a internet ou qualquer outra mídia técnica e não encarar os desenvolvimentos políticos em si. As pessoas devem assumir suas responsabilidades políticas. É a dimensão humana a verdadeira responsável.

Harry Tristan quando reflete sobre as redes sociais entende que: “a tecnologia deixou de ter o papel da ferramenta para se tornar um vicio e um meio de manipulação. Foi isso que mudou. As mídias sociais não são apenas uma ferramenta esperando para ser usada. Elas têm os próprios objetivos e formas específicas de alcançá-los, usando sua psicologia contra você”

Para conviver com esses dispositivos, portanto, é preciso compreender esse novo funcionamento e ter consciência do modo como operam. Com isso torna-se necessária a aceleração de  regulamentação, leis e regras.

Para o cientista político Peter Warren Singer, do ponto de vista legal, a legislação não deve banir as deepfakes, pois elas podem ser usadas para o bem e para o mal, para entreter e para enganar. Ele apoia a Blade Runner Rule: não banir por uma questão de liberdade de expressão, mas garantir o direito das pessoas de saber quando estão interagindo com um robô. No entanto Singer adverte que é preciso ter leis para isso.

Mas até que existam essas leis é preciso confiar na índole e na postura ética de quem domina esse tipo de ferramenta. O falso é agora uma realidade. Uma imagem deve ser compreendida em sua condição de imagem.

Como já observado, a conduta das pessoas repassarem informações falsas sem se importar com veracidade desde que coincidam com as opiniões pessoais é o maior problema a ser enfrentado.

Piercarlo Maggiolini em seu artigo Um aprofundamento para o conceito de ética digital observa uma falta de consciência consequente do uso das novas tecnologias. Para o autor, “a complexidade "técnica" exige uma ética profissional adequada dos agentes envolvidos, porque os riscos técnicos de mau funcionamento são muito elevados”.

No início da cultura digital, em 1964, Alice Hilton, fundadora do Instituto de Pesquisas Ciberculturais, já havia percebido a necessidade de uma exigência ética na nova era da automação.

“A era da cibercultura requer algo muito mais difícil do que as descobertas científicas e as invenções técnicas. Devemos reexaminar nossos valores morais, nossos conceitos éticos e as noções profundamente arraigadas a que damos expressão oral. E devemos entender a diferença entre os valores morais da espécie humana e o ethos de uma sociedade”.

Jaron Lanier observa que ao longo da história sempre foi a crítica que leva à criação de algo melhor. Os críticos é que são os verdadeiros otimistas.  A inteligência e a ética são, portanto, fundamentais no processo de desenvolvimento humano aliado à tecnologia.

Com a propagação das tecnologias de informação e comunicação, é fundamental a reflexão ética a partir de um princípio de responsabilidade coletiva. Maggiolini compreende que “a nova Ética Digital, não pode ser uma ética unicamente individual, mas deve ser sobretudo uma ética coletiva, pública e profissional”.

Principalmente em momentos eleitorais em que os discursos são inflamados, é preciso segurar a urgência de compartilhamento nas redes sociais e dispor de alguns minutos para verificar as informações. A desinformação disseminada por métodos desonestos gera desastres governamentais.

A necessidade de cautela na deglutição de informações e a educação da população para aprender a consumir conteúdos são essenciais para a compreensão e consequente comportamento ético no universo da internet.

Navegar é impreciso.

 

***

Bibliografia:

BARBOSA, Mariana (org.) Pós-verdade e Fake News. Rio de Janeiro: Cobogó, 2019.

BEIGUELMAN, Giselle; LEMOS, Ronaldo. Arte e política em tempos de deepfakes. Revista Zum. 29/07/2020. Disponível em:
https://www.youtube.com/watch?v=oJBVmg9lMeA

DIRESTA, Renée. Entrevista concedida ao documentário O Dilema das redes (Netflix. EUA, 2020)

FILHO, Marco Antonio. Arqueologia do apagamento. Porto Alegre: Cadernos de fotografia, 2019. Disponível em:
http://cadernos.festfoto.art.br/arqueologia-do-apagamento/

HARRIS, Tristan. Entrevista concedida ao documentário O Dilema das redes (Netflix. EUA, 2020)

HILTON, Alice. An ethos for the age of cyberculture Proceedings. Spring joint computer conference, 1964. Disponível em: https://is.gd/xtzePY

LANIER, Jaron. Entrevista concedida ao documentário O Dilema das redes (Netflix. EUA, 2020)

LÉVY, Pierre. Cibercultura. São Paulo: ed.34, 1999.

LÉVY, Pierre. Internet e responsabilidade política. Fronteiras do Pensamento, 2020. Disponível em:
https://www.youtube.com/watch?v=OxmfPH4YJIQ

MAGGIOLINI, Piercarlo. Um aprofundamento para o conceito de ética digital. Revista de Administração de Empresas, vol. 54, n. 5, 2014.
Disponível em: https://is.gd/VXBYbo

PARDO,José Luis. Las verdades del Photoshop. El País, 2015.
Disponível em: https://is.gd/lkhExb

SARTORI, Bruno. Tonight CNN. 21/07/2020
Disponível em: https://www.youtube.com/watch?v=eauV-zHNqW

SINGER, Peter Warren. Entrevista concedida à Mariana Barbosa In: BARBOSA, Mariana (org.) Pós-verdade e Fake News. Rio de Janeiro: Cobogó, 2019, p.104.

WONG, Cynthia M. Entrevista concedida ao documentário O Dilema das redes (Netflix. EUA, 2020)

Filmes:

AMER, Karin; NOUJAIM, Jehane.  (Documentário) Privacidade Hackeada (The Great Hack), Dirigido por Karim Amer e Jehane Noujaim. Netflix. EUA, 2019. 2h19m.

KOMASA, Jan. (Filme) Rede de Ódio (The Hater). Roteiro de Mateusz Pacewicz. Dirigido por Jan Komasa. Netflix. Polônia, 2020. 2h15m.

ORLOWSKI, Jeff. (Documentário) O Dilema das redes (Social Dilema). Produzido por Larissa Rhodes. Dirigido por Jeff Orlowski. Netflix. EUA, 2020. 1h 33m.

Links e Websites:

BUKOWINSKI, Andrés. Comercial Folha de São Paulo,1987.
https://www.youtube.com/watch?v=bZaYeiptmd4

SARTORI, Bruno. Canal YouTube:
https://www.youtube.com/channel/UCaiGLmKrcve_cipRElqSnqA

Deepfake Obama:
https://www.youtube.com/watch?v=y5PZ5MNJSDg&t=5s

First Order Model for Image Animation:
https://www.youtube.com/watch?v=mUfJOQKdtAk&t=4s

Impressions side by side comparison
https://www.youtube.com/watch?time_continue=60&v=NVluHwj6Lmo&feature=emb_logo

New technique for detecting deepfake vídeos
https://www.youtube.com/watch?v=51uHNgmnLWI

Perfis falsos
https://www.fakenamegenerator.com/

Restauração de vídeo com inteligência artificial

https://www.youtube.com/watch?v=xHpqABfu63A

This person does not exist
https://thispersondoesnotexist.com/