Um processo federal sobre a lei “Usando Tecnologia Deep Fake para Influenciar Eleições” de Minnesota agora aborda diretamente a influência da IA. Num processo recente, os advogados que contestam a lei disseram que uma declaração apresentada em apoio da lei mostrava sinais de conter texto gerado por IA. O reformador de Minnesota notícias O procurador-geral Keith Ellison pediu ao diretor fundador do Stanford Social Media Lab, Jeff Hancock, que enviasse um artigo, mas o documento contém fontes inexistentes que parecem ter sido alucinadas pelo ChatGPT ou outro grande modelo de linguagem (LLM).

A declaração de Hancock cita um estudo de 2023 publicado em Jornal de Tecnologia da Informação e Política intitulado “O efeito dos vídeos falsos nas atitudes e no comportamento político”.

Mas de acordo com Reformadornão há registro deste estudo em Jornal de Tecnologia da Informação e Política ou qualquer outra publicação. Nem a outra fonte citada na declaração de Hancock “Deepfakes e a ilusão de autenticidade: processos cognitivos por trás da aceitação da desinformação” parece existir.

Hancock não respondeu A beirasolicitação do usuário para comentário.

“A citação tem a marca de ser uma ‘alucinação’ de inteligência artificial (IA), sugerindo que pelo menos a citação foi produzida por um grande modelo de linguagem como o ChatGPT”, disseram os advogados do Minnesota Rep. Mary Franson e Christopher Khols – um YouTuber conservador que atende por Sr. ele escreveu em submissão. “Os promotores não sabem como essa alucinação acabou na declaração de Hancock, mas lança dúvidas sobre todo o documento, especialmente porque grande parte do comentário não contém metodologia ou lógica analítica”.

Source link