Norte-americano John Hopfield e britânico Geoffrey Hinton dividem a láurea por terem criado os primeiros sistemas de aprendizado de máquina com redes neurais artificiais
Os vencedores vão partilhar o prêmio de 11 milhões de coroas suecas, cerca de R$ 5,8 milhões (ilustração: Niklas Elmehed/Nobel Prize Outreach) |
Marcos Pivetta | Pesquisa FAPESP – “Por descobertas e invenções fundamentais que permitem o estabelecimento do aprendizado de máquina por meio de redes neurais artificiais”, o norte-americano John Hopfield, da Universidade de Princeton, nos Estados Unidos, e o britânico Geoffrey Hinton, da Universidade de Toronto, no Canadá, dividiram o Prêmio Nobel de Física deste ano. O anúncio foi feito na manhã de terça-feira (08/10), na Real Academia de Ciências da Suécia, em Estocolmo. Ambos vão partilhar o prêmio de 11 milhões de coroas suecas, cerca de R$ 5,8 milhões.
Ferramentas de inteligência artificial (IA) generativa, como o ChatGPT e o Gemini, usam esse tipo de aprendizado de máquina, inspirado na estrutura do cérebro humano e na interação entre os neurônios. A base dessas estruturas apresenta também grande similaridade com modelos da física estatística usados para estudar o spin – uma propriedade quântica intrínseca dos elétrons e de outras partículas subatômicas que influencia sua interação com campos magnéticos.
“O trabalho dos laureados já tem produzido enormes benefícios. Na física, usamos redes neurais artificiais em um grande conjunto de áreas, como no desenvolvimento de novos materiais com propriedades específicas”, disse Ellen Moons, da Universidade de Karlstad, na Suécia, presidente do Comitê de Física do Nobel. Na verdade, hoje é difícil encontrar qualquer área do conhecimento, desde as humanas até as exatas, passando pelas biológicas, que não utilize alguma forma de aprendizado de máquina.
Físico teórico com forte interesse na biologia molecular, Hopfield, hoje com 91 anos, formulou no início da década de 1980 um tipo de rede que conseguia criar uma memória associativa capaz de armazenar e reconstruir padrões de informação. Sua contribuição, feita quando estava no Instituto de Tecnologia da Califórnia (Caltech), ficou conhecida como rede ou modelo de Hopfield. Trata-se de uma estrutura que imita o funcionamento dos neurônios, as células cerebrais que trocam sinais químicos ou elétricos entre si por meio de sinapses.
Quando o cérebro humano aprende algo, as conexões entre certos neurônios se tornam mais fortes enquanto as de outros neurônios ficam mais fracas. Esse padrão de funcionamento é importante para guardar e recuperar as memórias armazenadas. No modelo de Hopfield, o papel dos neurônios é desempenhado pelos nós interconectados da rede. Como as células do cérebro, esses nós, neurônios artificiais, se comunicam entre si e podem ser treinados para estabelecer conexões mais fortes ou mais fracas em função do tipo de informação a que foram expostas. Dessa forma, o modelo “aprende” a guardar e a reconhecer diferentes tipos de informação.
“Em 1982, Hopfield trabalhava sozinho no Caltech com redes neurais, uma área de estudo que ele estava iniciando”, comenta o físico brasileiro José Nelson Onuchic, da Universidade Rice, nos Estados Unidos, que foi orientado no Caltech nos anos 1980 por Hopfield em seu doutorado sobre a química de proteínas. “Eu dou risada quando dizem que a inteligência artificial surgiu agora. Hopfield já trabalhava na área há 40 anos.” Onuchic está agora em São Paulo, onde participa de um simpósio sobre biofísica molecular no Centro Internacional de Física Teórica do Instituto Sul-Americano para Pesquisa Fundamental (ICTP-SAIFR), que funciona no Instituto de Física Teórica da Universidade Estadual Paulista (IFT-Unesp).
Os trabalhos de Hinton, hoje com 76 anos, usaram o modelo de Hopfield para dar um passo além, ainda nos anos 1980. Formado em psicologia experimental, com doutorado em inteligência artificial, ele criou um método que, de forma autônoma, procura por certas propriedades em um conjunto de dados. Denominado máquina de Boltzmann, em alusão aos estudos em física estatística do austríaco Ludwig Eduard Boltzmann (1844-1906), esse tipo de rede neural forma a base da IA generativa.
Sistemas ancorados nesse tipo de rede neural conseguem, por exemplo, classificar imagens de acordo com padrões que lhes foram “ensinados” e produzir textos ou outro tipo de informação que sejam similares a modelos treinados para reconhecer e imitar. “Os dois pesquisadores são os pioneiros da inteligência artificial e tiveram importante papel no desenvolvimento da área”, comenta o físico Francisco Aparecido Rodrigues, do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (ICMC-USP), situado no campus de São Carlos. “A máquina de Boltzmann pode trabalhar com mais tipos de dados do que o modelo de Hopfield. Ela é de uso mais geral e pode também gerar novos dados a partir dos padrões que aprendeu a reconhecer.”
Paralelamente aos estudos na academia, Hinton trabalhou durante dez anos, entre 2013 e 2023, como vice-presidente e fellow do setor de engenharia do Google. Preferiu deixar a empresa no ano passado para ter mais liberdade de criticar os riscos envolvidos no emprego da inteligência artificial.
Nenhum comentário:
Postar um comentário