Paris:

O Prêmio Nobel de Física foi concedido a dois cientistas na terça-feira por descobertas que lançaram as bases para a inteligência artificial usada por ferramentas extremamente populares como o ChatGPT.

O britânico-canadense Geoffrey Hinton, conhecido como “padrinho da IA”, e o físico norte-americano John Hopfield receberam o prêmio por “descobertas e invenções que permitem o aprendizado de máquina com redes neurais artificiais”, disse o júri do Nobel.

Mas o que são e o que tudo isso significa? Aqui estão algumas respostas.

O que são redes neurais e aprendizado de máquina?

Mark van der Wilk, especialista em aprendizado de máquina da Universidade de Oxford, disse à AFP que uma rede neural artificial é uma construção matemática “vagamente inspirada” no cérebro humano.

Nossos cérebros têm uma rede de células chamadas neurônios, que respondem a estímulos externos – como coisas que nossos olhos viram ou ouvidos – enviando sinais uns aos outros.

Quando aprendemos coisas, algumas conexões entre neurônios ficam mais fortes, enquanto outras ficam mais fracas.

Ao contrário da computação tradicional, que funciona mais como a leitura de uma receita, as redes neurais artificiais imitam aproximadamente esse processo.

Os neurônios biológicos são substituídos por cálculos simples, às vezes chamados de “nós” – e os estímulos recebidos com os quais eles aprendem são substituídos por dados de treinamento.

A ideia é que isso permita que a rede aprenda ao longo do tempo – daí o termo aprendizado de máquina.

O que Hopfield descobriu?

Mas antes que as máquinas pudessem aprender, era necessária outra característica humana: a memória.

Você já teve dificuldade para lembrar uma palavra? Considere o ganso. Você pode percorrer palavras semelhantes – tonto, bom, ghoul – antes de atacar o ganso.

“Se você receber um padrão que não é exatamente o que você precisa lembrar, você precisa preencher os espaços em branco”, disse van der Wilk.

“É assim que você se lembra de uma memória específica.”

Esta foi a ideia por trás da “rede Hopfield” – também chamada de “memória associativa” – que o físico desenvolveu no início dos anos 1980.

A contribuição de Hopfield significou que quando uma rede neural artificial recebe algo ligeiramente errado, ela pode percorrer padrões armazenados anteriormente para encontrar a correspondência mais próxima.

Isso provou ser um grande passo em frente para a IA.

E o Hinton?

Em 1985, Hinton revelou sua própria contribuição para a área – ou pelo menos uma delas – chamada máquina de Boltzmann.

Nomeado em homenagem ao físico do século 19, Ludwig Boltzmann, o conceito introduziu um elemento de aleatoriedade.

Em última análise, essa aleatoriedade foi a razão pela qual os geradores de imagens atuais com tecnologia de IA podem produzir variações infinitas no mesmo prompt.

Hinton também mostrou que quanto mais camadas uma rede tiver, “mais complexo pode ser seu comportamento”.

Isso, por sua vez, tornou mais fácil “aprender com eficiência um comportamento desejado”, disse à AFP o pesquisador francês de aprendizado de máquina Francis Bach.

Para que é usado?

Apesar dessas ideias estarem em vigor, muitos cientistas perderam o interesse pela área na década de 1990.

O aprendizado de máquina exigia computadores extremamente poderosos, capazes de lidar com grandes quantidades de informações. São necessárias milhões de imagens de cães para que esses algoritmos consigam distinguir um cachorro de um gato.

Portanto, foi só na década de 2010 que uma onda de avanços “revolucionou tudo relacionado ao processamento de imagens e ao processamento de linguagem natural”, disse Bach.

Da leitura de exames médicos ao direcionamento de carros autônomos, da previsão do tempo à criação de deepfakes, os usos da IA ​​são agora numerosos demais para serem contabilizados.

Mas será que é realmente física?

Hinton já havia ganhado o prêmio Turing, considerado o Nobel da ciência da computação.

Mas vários especialistas disseram que ele foi um merecido prêmio Nobel no campo da física, que deu início à ciência no caminho que levaria à IA.

O pesquisador francês Damien Querlioz destacou que esses algoritmos foram originalmente “inspirados na física, ao transpor o conceito de energia para o campo da computação”.

Van der Wilk disse que o primeiro Nobel “pelo desenvolvimento metodológico da IA” reconheceu a contribuição da comunidade física, bem como dos vencedores.

E embora o ChatGPT às vezes possa fazer a IA parecer genuinamente criativa, é importante lembrar a parte “máquina” do aprendizado de máquina.

“Não há mágica acontecendo aqui”, enfatizou van der Wilk.

“Em última análise, tudo na IA são multiplicações e adições.”

(Exceto a manchete, esta história não foi editada pela equipe da NDTV e é publicada a partir de um feed distribuído.)