Semanas depois que o ex-presidente Trump sobreviveu a uma tentativa de assassinato em Butler, Pensilvânia, um vídeo circulou nas redes sociais que parecia mostrar a vice-presidente Kamala Harris dizendo em um comício: “Donald Trump não consegue nem morrer com dignidade”.

O clipe provocou indignação, mas foi uma farsa – Harris nunca disse isso. A frase foi lida por uma voz gerada por IA que soava estranhamente como a de Harris e depois transformada em um discurso que Harris realmente fez.

Uma enorme percentagem de eleitores está a assistir a este tipo de manipulação, e há uma preocupação crescente sobre o seu efeito nas eleições, de acordo com um relatório. nova pesquisa de 2.000 adultos pela empresa de pesquisa de mercado 3Gem. A pesquisa, encomendada pela empresa de segurança cibernética McAfee, descobriu que 63% das pessoas entrevistadas viram um deepfake nos últimos 60 dias, com 15% expostos a 10 ou mais.

A exposição a uma variedade de deepfakes foi bastante uniforme em todo o país, disse a pesquisa, sendo os deepfakes políticos o tipo mais comum visto. Mas os deepfakes com temática política prevaleceram especialmente em Michigan, Pensilvânia, Carolina do Norte, Nevada e Wisconsin – estados indecisos cujos votos poderiam decidir a eleição presidencial.

Na maioria dos casos, disseram os entrevistados, os deepfakes eram paródias; uma minoria (40%) foi concebida para enganar. Mas mesmo as paródias e os deepfakes não enganosos podem afetar subliminarmente os telespectadores, confirmando os seus preconceitos ou reduzindo a sua confiança nos meios de comunicação, disse Ryan Culkin, diretor de aconselhamento da Thriveworks, um fornecedor nacional de serviços de saúde mental.

“É apenas mais uma camada a um momento já estressante”, disse Culkin.

A esmagadora maioria das pessoas entrevistadas pela McAfee – 91% – disse estar preocupada com a interferência dos deepfakes nas eleições, possivelmente alterando a impressão do público sobre um candidato ou afetando os resultados eleitorais. Quase 40% se descreveram como altamente preocupados. Possivelmente por causa da época do ano, as preocupações com os deepfakes influenciando as eleições, iluminando o público ou minando a confiança na mídia aumentaram acentuadamente em uma pesquisa realizada em janeiro, enquanto as preocupações com os deepfakes usados ​​para cyberbullying, fraudes e pornografia falsa diminuíram, a pesquisa encontrado.

Duas outras descobertas dignas de nota: sete em cada 10 entrevistados disseram que se depararam com material pelo menos uma vez por semana que os fez pensar se era real ou gerado por IA. Seis em cada dez disseram não estar confiantes de que conseguiriam responder a essa pergunta.

No momento, nenhuma lei federal ou da Califórnia bloqueia especificamente deepfakes em anúncios. O governador Gavin Newsom sancionou um projeto de lei no mês passado que teria proibido materiais de campanha enganosos e alterados digitalmente dentro de 120 dias após a eleição, mas um juiz federal o bloqueou temporariamente com base na 1ª Emenda.

Jeffrey Rosenthal, sócio do escritório de advocacia Blank Rome e especialista em legislação de privacidade, disse que a lei da Califórnia proíbe anúncios de campanha “materialmente enganosos” dentro de 60 dias após uma eleição. A barreira reforçada do estado contra deepfakes em anúncios não entrará em vigor até o próximo ano, no entanto, quando uma nova lei exigirá que os anúncios políticos sejam rotulados se contiverem conteúdo gerado por IA, disse ele.

O que você pode fazer sobre deepfakes

A McAfee é uma das várias empresas que oferecem ferramentas de software que ajudam a detectar mídia com conteúdo gerado por IA. Outros dois são Olá e BitMindque oferece extensões gratuitas para o navegador Google Chrome que sinalizam suspeitas de deepfakes.

Patchen Noelke, vice-presidente de marketing da Hiya em Seattle, disse que a tecnologia de sua empresa analisa os dados de áudio em busca de padrões que sugiram que foram gerados por um computador em vez de por um ser humano. É um jogo de gato e rato, disse Noelke; os fraudadores encontrarão maneiras de evitar a detecção e empresas como a Hiya se adaptarão para enfrentá-las.

Ken Jon Miyachi, cofundador da BitMind em Austin, Texas, disse que neste momento a tecnologia de sua empresa funciona apenas em imagens estáticas, embora tenha atualizações para detectar IA em arquivos de vídeo e áudio nos próximos meses. Mas as ferramentas para gerar deepfakes estão à frente das ferramentas para detectá-los neste momento, disse ele, em parte porque “há significativamente mais investimento no lado generativo”.

Essa é uma das razões pelas quais ajuda a manter o que Steve Grobman, diretor técnico da McAfee, chamou de ceticismo saudável em relação ao material que você vê online.

“Todos nós podemos ser suscetíveis” a um deepfake, disse ele, “especialmente quando confirma um preconceito natural que já temos”.

Além disso, tenha em mente que imagens e sons gerados pela inteligência artificial podem ser incorporados em materiais que de outra forma seriam autênticos. “Fazer um vídeo e manipular apenas cinco segundos dele pode realmente mudar o tom, a mensagem”, disse Grobman.

“Você não precisa mudar muito. Uma frase inserida num discurso no momento certo pode realmente mudar o significado.”

O senador estadual Josh Becker (D-Menlo Park) observou que há pelo menos três leis estaduais que entrarão em vigor no próximo ano para exigir mais divulgação de conteúdo gerado por IA, incluindo uma de sua autoria, a Lei de Transparência de IA da Califórnia. Mesmo com essas medidas, disse ele, o estado ainda precisa que os residentes assumam um papel ativo na detecção e no combate à desinformação.

Ele disse que as quatro principais coisas que as pessoas podem fazer são questionar conteúdos que provocam emoções fortes, verificar a fonte da informação, partilhar informações apenas de fontes fiáveis ​​e denunciar conteúdos suspeitos aos funcionários eleitorais e às plataformas onde estão a ser partilhados. “Se algo atinge você de maneira muito emocional”, disse Becker, “provavelmente vale a pena dar um passo para trás para pensar: de onde vem isso?”

Em seu site, a McAfee oferece um conjunto de dicas por identificar prováveis ​​deepfakes, evitar golpes eleitorais e não espalhar mídias falsas. Estes incluem:

  • Nos textos, procure repetições, raciocínios superficiais e escassez de fatos. “A IA muitas vezes diz muito sem dizer muito, escondendo-se atrás de um excesso de vocabulário pesado para parecer informada”, aconselha o site.
  • Na imagem e no áudio, amplie para procurar inconsistências e movimentos estranhos do locutor e ouça sons que não correspondem ao que você está vendo.
  • Tente corroborar o material com conteúdo de outros sites bem estabelecidos.
  • Não aceite nada pelo valor nominal.
  • Examine a fonte e, se o material for um trecho, tente encontrar a mídia original no contexto.

Para qualquer coisa que você não veja com seus próprios olhos ou através de uma fonte 100% confiável, “suponha que possa ser photoshopado”, aconselhou Grobman. Ele também alertou que é fácil para os fraudadores clonarem sites eleitorais oficiais e depois alterarem alguns detalhes, como o local e o horário dos locais de votação.

É por isso que você deve confiar em sites relacionados a votação apenas se seus URLs terminarem em .gov, disse ele, acrescentando: “Se você não sabe por onde começar, pode começar em Vote.gov.” O site oferece informações sobre eleições e direitos de voto, bem como links para sites eleitorais oficiais de cada estado.

“A capacidade de fazer com que grande parte do nosso mundo digital seja potencialmente falso degrada a confiança geral”, disse Grobman. Ao mesmo tempo, disse ele, “quando há provas legítimas de prevaricação, de um crime, de comportamento antiético, é muito fácil alegar que eram falsas. … Nossa capacidade de responsabilizar os indivíduos quando existem evidências também é prejudicada pela disponibilidade desenfreada de falsificações digitais.”