Enquanto escrevo, existem muitas pessoas poderosas em todo o mundo que estão se preparando para viajar para Paris – e a sensação de que muitos deles prendem a respiração.
Na segunda -feira, no histórico de produção da cidade, 125 -Year -old Grand Palais, representantes de 80 países, incluindo líderes mundiais, chefes técnicos, acadêmicos e outros especialistas, eles se reunirão em uma cúpula global de dois dias para discutir o progresso atual e o futuro para uma tecnologia rápida e desenvolvida e extremamente chateada, que é inteligência artificial.
Pode ser o que está na agenda oficial da cúpula da inteligência artificial, mas nesta loja em particular há algo que respira fogo: Deepseek.
Uma vez que um fã de corridas de cavalos me disse que na noite anterior à grande corrida é todos os vencedores.
E quando a China estava soprando dramaticamente ai em uma nova direção com a Deepseek, seu assistente de IA super eficaz e super carregado, de repente, há a sensação de que a posição do polo ocupada pelo setor americano AI, apesar de sua enorme riqueza e infraestrutura de IA , pode não estar fora de alcance.
A Prof Gina Neff, do Centro de Tecnologia e Democracia da Minderoo da Universidade de Cambridge, diz que atualmente há “vácuo para a IA global”.
O Prof Dame Wendy Hall of Southampton University concorda. “Deepseek percebeu que a China é uma força a ser levada em consideração”, diz um cientista da computação.
“Não precisamos apenas seguir o que as grandes empresas dizem na costa oeste. Precisamos de um diálogo global”.
O momento da cúpula não poderia ser melhor nesta fila.
A Europa também prevê a oportunidade de fazer uma nova oferta para a coroa da IA. Um dos funcionários do presidente francês Emmanuel Macron descreveu a cúpula como “despertar” para a França e a Europa, acrescentando que o bloco não deve permitir que a revolução da IA ”passe”.
Outros países também reconhecem a transferência potencial da força da IA no ar. O primeiro -ministro da Índia, Narendra Modi, confirmou sua participação nesta cúpula – depois de não ter chegado à assembléia anterior.
Os EUA enviam algum poder de fogo sério como seu próprio sinal defensivo, incluindo o vice -presidente JD Vance, CEO da Openi Sam Altman e Google Sundar Pichai.
Elon Musk está significativamente ausente na lista oficial de convidados, mas sem dúvida terá algo a dizer, se é pessoalmente ou não.
O primeiro -ministro britânico Kier Starmer também se foi.
Duas cúpulas anteriores ocorreram, a primeira realizada no Reino Unido e a segunda na Coréia do Sul. Muito aconteceu desde que a IA mundial se reuniu pela primeira vez, nas escadas da histórica mansão da casa de Bletchley, em novembro de 2023, e prometeu tentar maximizar os benefícios da IA na minimização dos riscos. Primeiro, metade da população global está em pesquisas de opinião pública desde então.
Em Bletchley Park, Vice -Chairman Chinês de Ciência e Tecnologia, Wu Zhaohui participou. Mas eles sussurraram que ele foi mantido na duração dos braços, com base na segurança nacional.
Em Paris, espero que a China seja convidada honorária. O país envia um de seus principais líderes, Ding Xuexiang, perto do aliado do presidente Xi Jinping. Há também um burburinho se o Deepseek Liang Wenfeng está unido.
Pedi ao Chatgpt que mencionasse alguns dos marcos notáveis da IA da Cúpula da Coréia do Sul em maio de 2024. Deepseek não cortou.
Obviamente, a IA é muito mais do que a IA generativa, como as ferramentas Deepseek e ChatGPT – que criam conteúdo como texto, imagens, vídeo. Pode ser mais acessível para nós como consumidores. No entanto, também existem ferramentas de IA que encontram os sintomas da doença, as soluções de modelos de mudanças climáticas, desenvolvem novas fórmulas de medicamentos – e isso estará em Paris.
Além disso, a narração de David em Golias, em torno da qual a história de Deepseek está pendurada, merece mais controle. Ai Ai Ai Ai Antropic, Dario Amodei, escreveu um blog convincente sobre se o Deepseek foi realmente construído em uma fração do custo de seus rivais americanos.
Sabemos que foi construído sobre seus ombros: usando uma série de chips Nvidia (provavelmente mais velhos por causa das sanções dos EUA) e alguma arquitetura de IA OpenSource, desenvolvida pela Meta. Além disso, o Openia reclamou que os oponentes estavam usando seu trabalho para prosseguir seus próprios (os contatos na indústria criativa se divertiram com a ironia disso, já que os produtos da Openi produziriam alegremente a produção no estilo de “criadores humanos individuais).
No entanto, Dempseek conseguiu abalar o setor de IA de uma maneira que não poderia prever. E ele limpa muito dinheiro com o valor de alguns dos maiores jogadores nesse processo. Quase certamente será um enorme tópico de conversa em todas essas salas de conferências de Paris.
Através da cúpula, há outro tópico que vale a pena assistir.
A primeira cúpula teve a palavra “segurança” em seu nome. Alguns sentiram que o evento estava empurrando a narrativa com muita força e medo com conversas sombrias sobre ameaças existenciais.
Mas não caiu completamente.
Como objeto, a segurança da IA é uma igreja relativamente ampla. Pode estar relacionado a qualquer número de riscos: geração e desinformação, distorção e discriminação de indivíduos ou raças, continuando o desenvolvimento de vários países controlados pela IA, que é o potencial para a IA criar vírus de computador imparáveis.
O professor Geoffrey Hinton, frequentemente descrito como um dos padrinhos da IA, diz isso como “riscos de curto prazo”. Eles poderiam estar na discussão de Paris, mas na semana passada o BBC Radio 4 do programa de hoje é improvável que eles ganhem forte cooperação internacional a longo prazo.
Um grande cenário que eles acreditam que realmente atrairá todos juntos é a perspectiva de que a IA se torne mais inteligente que os humanos – e deseja assumir controles.
“Ninguém quer tirar a IA das pessoas”, diz ele. “Os chineses organizariam o show muito mais do que IA”.
O professor Hinton comparou essa eventualidade com o auge da Guerra Fria, quando os EUA e a Rússia “quase conseguiram” em cooperação para impedir a guerra nuclear global.
“Não há esperança de parar (desenvolvimento de IA)”, disse ele. “O que temos que fazer é tentar desenvolvê -lo com segurança”.
O professor Max Tegmark, fundador do Future of Life Institute, também compartilha alerta. “Ou desenvolvemos uma IA incrível que ajuda as pessoas ou uma IA incontrolável que substitui as pessoas”, diz ele.
“Infelizmente, estamos mais próximos de construir a IA do que controlá -la”.
O professor Tegmark espera que a cúpula se esforce para vincular padrões de segurança “como em qualquer outra indústria crítica”.