O Google fez uma das mudanças mais substantivas em seu Princípios da IA Desde que os publicou pela primeira vez em 2018. Em uma mudança vista por The Washington PostA gigante da pesquisa editou o documento para remover as promessas que ele fez promissor que não “projetaria ou implantaria” as ferramentas de AI para uso em qualquer arma ou tecnologia de vigilância. Anteriormente, essas diretrizes incluíam uma seção intitulada “Aplicativos que não perseguiremos”, que não está presente na versão atual do documento.
Em vez disso, agora há uma seção intitulada “Desenvolvimento e implantação responsáveis”. Lá, o Google diz que implementará “a supervisão humana apropriada, a due diligence e os mecanismos de feedback para se alinhar com as metas do usuário, a responsabilidade social e os princípios amplamente aceitos do direito internacional e dos direitos humanos”.
Esse é um compromisso muito mais amplo do que os específicos que a empresa fez recentemente no final do mês passado, quando a versão anterior de seus princípios de IA ainda estava ao vivo em seu site. Por exemplo, no que se refere a armas, a empresa disse anteriormente que não projetaria IA para uso em “armas ou outras tecnologias cujo objetivo principal ou implementação é causar ou facilitar diretamente lesões às pessoas”. Quanto às ferramentas de vigilância de IA, a empresa disse que não desenvolveria tecnologia que viola “normas aceitas internacionalmente”.
Quando solicitado a comentar, um porta -voz do Google apontou Engadget para um Postagem do blog A empresa publicada na quinta -feira. Nele, o CEO da DeepMind, Demis Hassabis, e James Manyika, vice-presidente sênior de pesquisa, laboratórios, tecnologia e sociedade no Google, dizem que o surgimento da IA como uma “tecnologia de uso geral” exigia uma mudança de política.
“Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores fundamentais como liberdade, igualdade e respeito pelos direitos humanos. E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar IA que proteja as pessoas, promove o Global crescimento e apóia a segurança nacional “, escreveu os dois. “… guiado por nossos princípios de IA, continuaremos a focar na pesquisa e nas aplicações de IA que se alinham à nossa missão, nosso foco científico e em nossas áreas de especialização e permanecem consistentes com princípios amplamente aceitos de direito internacional e direitos humanos – sempre avaliando Trabalho específico avaliando cuidadosamente se os benefícios superam substancialmente os riscos potenciais “.
Quando o Google publicou seus princípios de IA pela primeira vez em 2018, o fez após Projeto Maven. Era um contrato governamental controverso que, se o Google decidisse renová -lo, teria visto a empresa fornecer software de IA ao Departamento de Defesa para analisar imagens de drones. Dezenas de funcionários do Google Saia da empresa em protesto ao contrato, com milhares mais assinando uma petição em oposição. Quando o Google acabou publicando suas novas diretrizes, o CEO Sundar Pichai disse à equipe que sua esperança era que eles permaneceriam “o teste do tempo”.
Em 2021, no entanto, o Google começou a buscar contratos militares novamente, com o que era supostamente um lance “agressivo” Para o contrato de nuvem de capacidade de nuvem de combate ao lixo do Pentágono. No início deste ano, The Washington Post relataram que os funcionários do Google haviam trabalhado repetidamente com o ministério de defesa de Israel para Expanda o uso do governo das ferramentas de IA.
Este artigo apareceu originalmente em Engadget em https://www.engadget.com/ai/google-now-thinks-its-ok-to-use-ai-forweapons-and-surveillance-224824373.html?src=rss
Source link