A equipe, liderada por Joon Sung Park, estudante de doutorado em ciência da computação em Stanford, recrutou 1.000 pessoas de idade, sexo, raça, região, educação e ideologia política variadas. Eles receberam até US$ 100 para participar. Com base em entrevistas com eles, a equipe criou réplicas desses indivíduos. Para testar o quão bem os agentes imitavam seus pares humanos, os participantes completaram uma série de testes de personalidade, estudos sociais e jogos de lógica, cada um deles duas vezes, com duas semanas de intervalo; então os agentes fizeram os mesmos exercícios. Os resultados foram 85% semelhantes.
“Quando você tem um monte de pequenos ‘vocês’ correndo por aí e realmente tomando decisões que vocês teriam tomado, acho que, em última análise, isso é o futuro”, diz Joon.
As réplicas são chamadas de agentes de simulação no artigo, e a motivação por trás de sua criação é facilitar aos pesquisadores das ciências sociais e de outras áreas a realização de pesquisas que seriam caras, impraticáveis ou antiéticas com pessoas reais. Se você puder criar modelos de IA que se comportem como pessoas reais, poderá usá-los para testar tudo, desde quão bem eles interceptam informações erradas nas redes sociais até que comportamento causa engarrafamentos.
Esses agentes de simulação são ligeiramente diferentes dos agentes que dominam o trabalho das principais empresas de IA atualmente. Eles são chamados de agentes baseados em ferramentas e são modelos projetados para fazer coisas por você, não para falar com você. Por exemplo, eles podem inserir dados, recuperar informações que você salvou em algum lugar ou – em algum momento – agendar sua viagem e agendar compromissos. Força de vendas anunciado em setembro, seus agentes baseados em ferramentas, seguido pela Anthropic em outubro, e a OpenAI planeja lançar alguns em janeiro Bloomberg.
Esses dois tipos de agentes são diferentes, mas compartilham um terreno comum. A pesquisa sobre agentes de simulação, como a discutida neste artigo, provavelmente levará a agentes de IA mais fortes em geral, diz John Horton, professor associado de tecnologia da informação na MIT Sloan School of Management, que fundou empresa conduzir pesquisas usando participantes simulados de inteligência artificial.
“Este artigo mostra como você pode fazer uma espécie de híbrido: usar pessoas reais para criar personas que podem então ser usadas programaticamente/em simulação de uma forma que não seria possível fazer com pessoas reais”, disse ele. Revisão de tecnologia do MIT no e-mail.
O estudo traz ressalvas, entre as quais a menor delas é o perigo que sugere. Assim como a tecnologia de geração de imagens facilitou a criação de falsificações profundas prejudiciais de pessoas sem o seu consentimento, qualquer tecnologia de geração de agentes levanta questões sobre a facilidade com que as pessoas podem criar ferramentas para se passar por outras pessoas online, dizendo ou prometendo coisas que não pretendiam. dizer. .
Os métodos de avaliação que a equipe usou para verificar quão bem os agentes de IA replicaram suas contrapartes humanas também foram bastante simples. Estes incluíram uma pesquisa social geral que reúne informações sobre a demografia, felicidade, comportamento de uma pessoa e muito mais, bem como classificações dos Cinco Grandes traços de personalidade: abertura à experiência, consciência, extroversão, agradabilidade e neuroticismo. Esses testes são comumente usados em pesquisas em ciências sociais, mas não pretendem capturar todos os detalhes únicos que nos tornam quem somos. Os agentes de IA também foram piores na replicação de humanos em testes comportamentais, como o “jogo do ditador”, projetado para esclarecer como os participantes avaliam valores como a justiça.