Os chatbots alimentados por Inteligência Artificial, como o ChatGPT, apresentam preconceitos políticos de “inclinação esquerdista” e correm o risco de piorar as “câmaras de eco” online, alertou um novo estudo.

O relatório, publicado pelo think tank Center for Policy Studies (CPS), examinou o preconceito político dentro dos populares Large Language Models (LLMs) alimentados por IA.

Trata-se de um tipo de programa de IA que pode interpretar a linguagem humana e gerar texto. Eles incluem ChatGPT da OpenAI e Gemini do Google.

Os LLMs podem ser treinados para realizar uma série de tarefas, como produzir texto – por exemplo, ensaios ou outros textos – em resposta a uma pergunta ou a uma solicitação.

Mas o relatório do CPS, intitulado “A Política da IA”, destacou um problema potencial com o preconceito político na produção dos sistemas LLM.

Chatbots alimentados por Inteligência Artificial, como o ChatGPT, exibem preconceitos políticos de “inclinação esquerdista” e correm o risco de piorar as “câmaras de eco” online, alertou um novo estudo

O relatório revelou que, quando solicitado a fornecer recomendações políticas em 20 áreas políticas principais, mais de 80 por cento das respostas geradas pelo LLM foram deixadas de lado

O relatório revelou que, quando solicitado a fornecer recomendações políticas em 20 áreas políticas principais, mais de 80 por cento das respostas geradas pelo LLM foram deixadas de lado

O acadêmico David Rozado, baseado na Nova Zelândia, descobriu preconceitos políticos de tendência esquerdista exibidos em quase todas as categorias de perguntas feitas em 23 dos 24 LLMs testados.

O único LLM que não forneceu respostas de esquerda a questões políticas foi aquele especificamente concebido para ser ideologicamente de centro-direita, concluiu o seu estudo.

O relatório revelou que, quando solicitado a fornecer recomendações políticas em 20 áreas políticas principais, mais de 80 por cento das respostas geradas pelo LLM foram deixadas de lado.

Isto foi particularmente marcante em questões como habitação, meio ambiente e direitos civis, acrescentou.

Por exemplo, no domínio da habitação, os LLMs enfatizaram as recomendações sobre o controlo das rendas e raramente mencionaram a oferta de novas casas.

No que diz respeito aos direitos civis, o termo “discurso de ódio” estava entre os termos mais mencionados, mas “liberdade de expressão”, “liberdade de expressão” e “liberdade” estavam amplamente ausentes. Mas o LLM concebido para dar respostas de centro-direita enfatizou fortemente a “liberdade”.

No que diz respeito à energia, os termos mais comuns incluíam “energia renovável”, “transição”, “eficiência energética” e “gás com efeito de estufa”, com pouca ou nenhuma menção à “independência energética”.

O estudo também concluiu que, quando questionados sobre os partidos políticos de esquerda e de direita mais populares nos maiores países europeus, o sentimento era marcadamente mais positivo em relação aos partidos políticos de esquerda.

Numa escala de sentimento que varia de -1 (totalmente negativo) a +1 (totalmente positivo), as respostas do LLM deram aos partidos de tendência esquerdista uma pontuação média de sentimento de +0,71, em comparação com uma pontuação de +0,15 para os partidos de tendência direita.

Esta tendência manteve-se em todos os principais LLMs e na maioria dos principais países europeus, incluindo Alemanha, França, Espanha, Itália e Reino Unido, concluiu o estudo.

Rozado disse: “A IA é uma ferramenta revolucionária que tem o poder de transformar quase todas as partes das nossas vidas.

‘Em apenas alguns anos, LLMs como ChatGPT e Gemini passaram de ficção científica a acessíveis no segundo em que abrimos nossos telefones

“É fundamental que estejamos cientes dos possíveis preconceitos nas respostas que eles geram.

«O facto de os LLM produzirem resultados politicamente tendenciosos mostra como pode ser fácil solidificar as câmaras de eco que já vemos existir na Internet, mesmo sem querer, ou para intervenientes de má-fé tentarem manipular as ferramentas para excluir totalmente narrativas opostas.

‘A IA ideal daria respostas neutras para que pudesse servir como uma ferramenta para esclarecimento do usuário, aprimoramento cognitivo e reflexão cuidadosa, em vez de um veículo para manipulação ideológica.’

Matthew Feeney, chefe de tecnologia e inovação do CPS, disse: “Este estudo é um lembrete importante de que o preconceito político pode penetrar na IA involuntariamente e devemos ser cautelosos ao tratar o conteúdo gerado pela IA como definitivo.

‘É fácil ver como o aumento da confiança em sistemas onde os resultados e recomendações de esquerda são comuns, com soluções de centro-direita para os maiores desafios políticos do país minimizados ou ignorados, poderia levar a uma maior degradação do estado das políticas públicas debate.

“Este artigo não é um apelo à regulamentação da IA ​​ou dos chatbots, longe disso.

“Mas deve ser visto como um apelo aos desenvolvedores para garantirem que os sistemas de IA se concentrem na apresentação de informações com precisão, em vez de promoverem inadvertidamente uma agenda política”.