Na quinta-feira passada, os senadores Elizabeth Warren e Eric Schmitt apresentaram um projeto de lei que visa encorajar mais concorrência nos contratos do Pentágono nas áreas de inteligência artificial e computação em nuvem. Atualmente Amazon, Microsoft, Google e Oracle dominar esses contratos. “No processo de criação, grandes coisas ficam maiores ao sugar os dados de todos os outros e usá-los para treinar e dimensionar seus próprios sistemas”, disse Warren. O Washington Post.
Novo fatura exigiria um processo de contratação competitivo para contratos que proibissem o Pentágono de usar prêmios sem licitação para empresas modeladas a partir de serviços em nuvem ou fundações de IA. (A decisão dos legisladores ocorreu um dia depois que a OpenAI anunciou que sua tecnologia seria implantada no campo de batalha pela primeira vez em parceria com a Anduril, completando regressão de um ano cooperar com os militares em sua política.)
Enquanto a Big Tech está sendo atingida por investigações antitruste, incluindo teste em andamento Uma nova investigação também foi lançada contra o Google por seu domínio nas buscas Microsoft-os reguladores também acusam as empresas de inteligência artificial de mentir descaradamente.
A Comissão Federal de Comércio tomou medidas na terça-feira contra a empresa de câmeras inteligentes IntelliVision, dizendo que a empresa fabrica alegações falsas sobre sua tecnologia de reconhecimento facial. A IntelliVision elogiou seus modelos de inteligência artificial usados em sistemas de câmeras de segurança residenciais e comerciais como funcionando sem preconceitos de gênero ou raça e treinados em milhões de imagens, duas afirmações que a FTC considera falsas. (A empresa não pôde apoiar a alegação de parcialidade e o sistema foi treinado apenas em 100.000 imagens, afirma a FTC.)
Uma semana antes, a FTC fez algo semelhante declarações fraude contra a gigante da segurança Evolv, que vende produtos de digitalização de segurança baseados em IA para estádios, escolas de ensino fundamental e médio e hospitais. A Evolv considera seus sistemas uma proteção melhor do que simples detectores de metal, dizendo que eles usam inteligência artificial para rastrear com precisão armas, facas e outras ameaças, ignorando objetos inofensivos. A FTC alega que a Evolv inflou os seus requisitos de precisão e que os seus sistemas falharam em certos casos, como num incidente de 2022, quando não conseguiram detectar uma faca de sete polegadas que acabou por ser usada para esfaquear um estudante.
Estas são um acréscimo às reclamações apresentadas pela FTC em setembro contra várias empresas de IA, incluindo uma que vendia uma ferramenta para criar análises falsas de produtos e outra que vendia os serviços de um advogado de IA.