Repórter de tecnologia
“É mais fácil obter perdão do que permissão”, diz John, engenheiro de software da Technology Society for Financial Services. “Apenas continue com isso. E se você tiver problemas mais tarde, limpe -o.”
É uma das muitas pessoas que usam suas próprias ferramentas de IA no trabalho, sem a divisão de TI (portanto, não usamos o nome completo de John).
De acordo com a pesquisa De acordo com o software AG, metade de todos os trabalhadores do conhecimento usam ferramentas pessoais IA.
A pesquisa define os trabalhadores do conhecimento como “aqueles que trabalham principalmente em uma mesa ou computador”.
Para alguns, isso ocorre porque a equipe de TI não oferece ferramentas de IA, enquanto outros disseram que queriam sua própria seleção de ferramentas.
A empresa de John fornece o Github Copilot para o desenvolvimento de software suportado pela IA, mas prefere o cursor.
“É principalmente o reabastecimento automático celebrado, mas é muito bom”, diz ele. “Está terminando 15 linhas ao mesmo tempo e então você olha e diz:” Sim, eu escreveria isso “.
Seu uso não autorizado não viola a política, é simplesmente mais fácil do que arriscar o longo processo de aprovação, diz ele. “Sou muito preguiçoso e bem pago pela perseguição de despesas”, acrescenta.
John recomenda que as empresas permaneçam flexíveis ao selecionar ferramentas de IA. “Eu disse às pessoas no trabalho para não renovar as licenças da equipe por um ano de cada vez, porque em três meses todo o cenário está mudando”, diz ele. “Todos vão querer fazer outra coisa e se sentirão presos com custos irregulares”.
A recente edição da Deepseek, uma IA disponível gratuitamente na China, provavelmente expandirá as possibilidades da IA.
Peter (não é seu nome verdadeiro) é um gerente de produto da empresa de armazenamento de dados que oferece a seu pessoal Google Gemini AI Chatbot.
As ferramentas externas de IA são proibidas, mas Peter usa o ChatGPT via ferramenta de pesquisa Kagi. Eles acham que a maior vantagem da IA vem de atacar seu pensamento quando ele pede a Chatbot para responder seus planos de diferentes perspectivas do cliente.
“A IA não lhe dá uma resposta porque oferece um parceiro de luta”, diz ele. “Como gerente de produto, você tem uma grande responsabilidade e não tem muitas boas lojas para discussões abertas sobre a estratégia. Essas ferramentas permitem isso com capacidade ilimitada e ilimitada”.
A versão ChatGPT que ele usa (4O) pode analisar o vídeo. “Você pode obter um resumo dos vídeos dos concorrentes e ter toda a conversa (com IA) sobre pontos nos vídeos da AOS como eles se sobrepõem a seus próprios produtos”.
Em uma conversa de bate -papo de 10 minutos, ele pode verificar um material que dura duas ou três horas assistindo a vídeos.
Ele estima que seu aumento da produtividade é uma empresa equivalente que receberá um terço de outra pessoa que trabalha de graça.
Ele não sabe por que a empresa proibiu a IA externa. “Eu acho que é uma coisa de controle”, diz ele. “As empresas querem ter uma palavra em quais ferramentas seus funcionários usam. É seu novo limite e querem ser conservadores”.
O uso de aplicativos de IA não autorizado às vezes é chamado de “Shadow AI”. É uma versão mais específica de “Shadow It”, que é quando alguém usa software ou serviços que o Departamento de TI não aprovou.
A segurança harmônica ajuda a identificar a IA das sombras e impedir que os dados corporativos sejam inseridos em ferramentas de IA.
Ele monitora mais de 10.000 aplicativos de IA e já viu mais de 5.000 deles.
Isso inclui suas próprias versões de chatgpt e software de negócios que adicionaram recursos de IA, como a Slack Communication.
Seja popular, a Shadow AI vem com riscos.
As ferramentas modernas da IA são construídas digerindo uma enorme quantidade de informações em um processo chamado treinamento.
Aproximadamente 30% da aplicação harmônica de aplicativos viu o uso do trem usando as informações do usuário.
Isso significa que as informações do usuário se tornarão parte da IA e, no futuro, poderão ser a saída de outros usuários.
As empresas podem se preocupar que seus segredos de negócios sejam emitidos por respostas de IA, mas Alair Paterson, CEO e co -fundador da segurança harmoniosa, acha que é improvável. “É muito difícil obter dados diretamente (ferramentas de IA)”, diz ele.
No entanto, as empresas terão medo de que seus dados sejam armazenados nos serviços de IA nos quais não têm controle, conscientização e isso pode ser vulnerável a violações de dados.
Será difícil para as empresas combater o uso de ferramentas de IA, porque elas podem ser muito úteis, especialmente para trabalhadores mais jovens.
“(AI) permite que você abre cinco anos de experiência dentro de 30 segundos de engenharia rápida”, diz Simon Haighton-Williams, CEO do grupo Adapvist, The British Software Services.
“Não gosta completamente (experiência), mas é uma boa perna da mesma maneira ter uma boa enciclopédia ou calculadora permite que você faça coisas que não poderia fazer sem essas ferramentas”.
O que ele diria às empresas que acham que a AI das sombras usa?
“Bem -vindo ao clube. Eu acho que todo mundo faz. Seja paciente e entenda o que as pessoas estão usando e por quê, e descubra como você pode aceitá -lo e gerenciá -lo, em vez de exigir que seja desligado. Você não quer ficar para trás como uma organização que não foi (ai aceita). ”
A Trimble fornece software e hardware para gerenciar dados para o ambiente construído. A empresa criou um assistente de assistente de Trimble para ajudar seus funcionários a usar a IA com segurança. É uma ferramenta interna de IA baseada nos mesmos modelos de IA que são usados no ChatGPT.
Os funcionários podem consultar um assistente de Trimble para várias inscrições, incluindo desenvolvimento de produtos, suporte ao cliente e pesquisa de mercado. O GitHub Copilot fornece desenvolvedores de software.
Karolina Torttil é diretora da IA em Trimble. “Encorajo todos a explorar todos os tipos de instrumentos em sua vida pessoal, mas eles percebem que sua vida profissional é um espaço diferente e há alguma garantia e consideração”, diz ele.
A empresa incentiva os funcionários a explorar os novos modelos online de IA.
“Isso nos leva à habilidade que todos somos forçados a desenvolver: precisamos ser capazes de entender o que são dados sensíveis”, diz ele.
“Existem lugares onde você não salvaria suas informações médicas e deve poder julgar esses tipos de julgamentos (também para dados de trabalho)”.
As experiências dos funcionários usando a IA em casa e para projetos pessoais podem formar a política da empresa à medida que a IA se desenvolve.
Deve haver um “diálogo constante sobre quais ferramentas ele melhor nos serve”, diz ele.