Em colaboração com Danilo Queiroz
Um canguru barrado na fila do aeroporto? O jogador Neymar apoiando a taxação dos Estados Unidos contra o Brasil? Um programa de TV onde uma apresentadora vestindo um maiô ameaça dar os filhos das participantes de um game show para adoção? Esses três vídeos podem parecer esquisitos, mas isso tem um motivo. Eles não são reais ou, pelo menos, não apresentam coisas ou pessoas reais. Tratam-se de imagens geradas por Inteligência Artificial (IA).
Esses são os chamados deepfakes, uma tecnologia que utiliza a IA para criar vídeos, áudios e até imagens falsas, mas com um nível de realismo impressionante. O nome é uma junção das palavras “deep learning” (aprendizado profundo, uma subárea da IA) e “fake” (falso).
A crescente sofisticação dessa tecnologia exige um olhar crítico sobre o conteúdo que consumimos online e a busca por informações de fontes verificadas. Conteúdos manipulados digitalmente que apresenta situações em que as figuras envolvidas parecem estar fazendo ou dizendo algo que nunca fizeram ou disseram acendem um alerta sobre a disseminação de notícias falsas (fake news).
Desde a explosão do uso das inteligências artificiais na segunda metade do ano de 2022, conteúdos falsos começaram a tomar conta da internet, com níveis de semelhança com a realidade ou até mesmo deturpando acontecimentos reais em prol de alguma narrativa ou grupo político. Isso acende um alerta para o uso indevido desse tipo de técnica para fins politiqueiros.
Perigos da distorção da realidade
Alguns são criados por diversão, mas outros podem oferecer riscos sérios à sociedade, levando os usuários a espalharem desinformação. Em termos simples, uma deepfake faz parecer que uma pessoa disse ou fez algo que, na verdade, nunca aconteceu. Isso é possível porque a IA é treinada com uma grande quantidade de dados (vídeos, fotos, áudios) de uma pessoa real, aprendendo suas características faciais, expressões, movimentos e nuances de voz.
Com esse conhecimento, a IA consegue gerar conteúdo novo e convincente, substituindo o rosto de uma pessoa em um vídeo existente, manipulando seus lábios para sincronizar com um áudio diferente, ou até mesmo clonando sua voz.
Isso aumenta a probabilidade de a população cair em golpes, que tem se tornado cada vez mais comum. Erik Maia é especialista em cibersegurança e alerta sobre os riscos oferecidos pelos vídeos gerados através de IA. “A gente diz que sempre o golpista tem um alvo específico. Pode ser uma pessoa específica, ele pode querer que ela seja exposta na internet, colocando alguma informação falsa sobre ela, ou pode ser um golpe rápido de cunho financeiro.”, explica.
Os riscos são diversos. Deepfake, apesar de não ser algo novo, tem se tornando cada vez mais frequente com as facilitações ao acesso dessa tecnologia, cada vez com o nível de processamento maior e chegando na palma da mão no celular das pessoas.
A discussão dos deepfakes é antiga, mas ganhou um novo capítulo em maio deste ano após o lançamento da ferramenta Veo 3, do Google. Trata-se de um modelo de inteligência artificial generativa multimodal desenvolvido pelo Google DeepMind. Sua principal inovação está na capacidade de criar vídeos a partir de texto, integrando também som sincronizado, efeitos ambientais, música e vozes.
O modelo de inteligência artificial viralizou na internet justamente por gerar vídeos de alta qualidade com base em um simples prompt. O avanço nessa tecnologia tem facilitado golpes e a população precisa ficar de olho em como se proteger.
O avanço dos dispositivos de IA possibilita a geração de vídeos falsos convincentes, sendo capaz de simular repórteres, apresentadores e até cenários inteiros.
Um relatório da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) revela que os brasileiros têm maior dificuldade em identificar notícias falsas. A melhor abordagem é manter desconfiança sobre o conteúdo encontrado na internet e sempre verificar as informações quando possível.
Segundo Erik, a melhor forma de se proteger contra informações que não passem segurança é duvidar. “Os criminosos estão aí para ludibriar as pessoas e fazer com que elas acreditem em algo que eles queiram acreditar e, muitas vezes, para criar uma grande massa e atingir o maior número de pessoas. Sempre duvide, você tem que buscar os órgãos de imprensa que de fato você confia e valida aquela informação.”, aconselha.
Diante da facilidade de encarar um conteúdo que valida seus próprios interesses e se identificar, é necessário cautela antes de compartilhar. “As pessoas normalmente olham o conteúdo e já querem repostar. Mas a educação é o principal caminho. Se a gente não trabalhar a educação, torna-se muito difícil a gente chegar a identificar facilmente num vídeo se é deepfake ou não. Você de fato tem que pesquisar e fazer uma boa pesquisa para chegar naquela conclusão.”, frisa o especialista.

Características das deepfakes
As deepfakes são criadas principalmente através de redes neurais artificiais, que são algoritmos de IA inspirados no funcionamento do cérebro humano. Os métodos mais comuns envolvem, por exemplo um face-swap (substituição de rosto), onde um rosto é trocado por outro em um vídeo, de forma que o resultado pareça natural.
Há ainda a possibilidade do lip-sync (sincronização labial), quando os movimentos dos lábios de uma pessoa em um vídeo são alterados para corresponder a um áudio diferente, fazendo com que ela pareça dizer algo que não disse.
Um outro método utilizado é o da clonagem de voz, quando a voz de uma pessoa é replicada para gerar novas falas, que podem então ser combinadas com vídeos ou usadas de forma independente.
A tecnologia por trás das deepfakes está se tornando cada vez mais acessível, o que significa que mesmo pessoas com conhecimentos básicos de computador podem criá-las.
Embora as deepfakes possam ter usos positivos (como na indústria do entretenimento para criar efeitos visuais ou até para restaurar filmes antigos), o uso indevido da tecnologia é uma grande preocupação devido aos seus potenciais danos à sociedade como um todo.
Além de possibilitar a criação de notícias falsas altamente convincentes, capazes de manipular a opinião pública, influenciar eleições ou incitar a violência, e de serem usadas por golpistas em fraudes, essa tecnologia também levanta diversas outras preocupações.
Dano à reputação é uma delas, diante da facilidade em usar imagens e vídeos falsos para difamar ou prejudicar a imagem de pessoas públicas e privadas. A capacidade de criar conteúdo falso tão realista pode levar também a uma desconfiança generalizada em relação a vídeos, áudios e imagens, tornando difícil distinguir o que é verdadeiro do que é falso.
Infelizmente, um dos usos mais prevalentes e prejudiciais das deepfakes tem sido a criação de conteúdo pornográfico não consensual, utilizando o rosto de pessoas sem seu consentimento.

Como identificar uma deepfake?
Nem tudo está perdido, ainda existem alguns sinais que podem indicar manipulação, como movimentos faciais e corporais que geralmente são rígidos, artificiais ou pouco naturais (ex: falta de piscar dos olhos, expressões faciais estranhas).
Observar a iluminação, sombras, proporções corporais (cabeça em relação ao corpo), ou a ausência de marcas características da pessoa (pintas, tatuagens) também é importante.
Prestar atenção em entonações inadequadas, tom robótico, ruídos de fundo suspeitos ou a falta de sincronia entre os lábios e a fala torna-se um grande indicador da não veracidade do conteúdo.
Há ainda as bordas do rosto que podem não se ajustar perfeitamente ao corpo ou ao cenário, e as texturas da pele que podem não combinar.
Diante das dicas, torna-se ainda essencial questionar a origem do conteúdo, quem o está compartilhando e se o que está sendo dito ou feito é algo que a pessoa realmente diria ou faria. Verificar se a informação é confirmada por outras fontes confiáveis é imprescindível.
Você precisa fazer login para comentar.