Google diz que novas IAs resolvem problemas da Olimpíada de Matemática

Marca "G" do Google
AlphaGo, que fez sucesso com jogos de tabuleiro, serviu de base para novo projeto de IA do Google (Ilustração: Vitor Pádua/Tecnoblog)

A Google DeepMind, divisão de inteligência artificial da Alphabet, apresentou nesta quinta-feira (25) seus novos modelos AlphaProof e AlphaGeometry 2. Segundo a empresa, eles foram capazes de resolver quatro dos seis problemas da Olimpíada Internacional de Matemática de 2024. A prova envolve tópicos como álgebra e geometria e é voltada para estudantes do ensino médio. O desempenho da IA está no mesmo nível dos medalhistas de prata deste ano.

Ferramentas como o ChatGPT e Gemini, baseadas em modelos de linguagem grandes (LLMs, em inglês), conseguem gerar textos coerentes e articulados a partir de pedidos feitos de forma natural. Por outro lado, eles têm dificuldades para compreender problemas envolvendo matemática e aplicar raciocínio lógico para resolvê-los.

Inteligência artificial
LLM é ótimo para escrever, mas não tão bom para raciocinar (Imagem: Vitor Pádua / Tecnoblog)

Para tentar superar este problema, o Google combinou seus modelos, no que chama de abordagem “neurossimbólica”. Ela combina a aprendizagem de máquina de uma rede neural artificial e as linguagens de programação convencionais.

Gemini e modelos de raciocínio unem forças

O AlphaProof tem suas origens no AlphaGo, que ficou famoso lá em 2017, ao derrotar o melhor jogador do mundo no jogo de tabuleiro Go. Ele conseguiu estas habilidades por meio de treinamento intensivo. A empresa, então, replicou o método para ele aprender matemática.

Apesar de suas dificuldades com números e lógica, o LLM Gemini também teve seu papel. Ele foi responsável por converter os textos dos problemas de matemática em uma linguagem de programação chamada Lean.

A partir disso, o AlphaProof poderia treinar suas provas matemáticas — isto é, o processo lógico para demonstrar a validade de uma afirmação matemática. Assim como o AlphaGo, este treinamento é baseado em tentativa e erro, levando o modelo a entender como encontrar provas corretas.

Tabuleiro com peças redondas brancas e pretas
AlphaGo aprendeu a jogar Go com treinamento intensivo (Imagem: Elena Popova / Unsplash)

O processo no AlphaGeometry é parecido: ele usa o Gemini para converter problemas de geometria em formas geométricas, que podem ser manipuladas e testadas por um programa. Agora, ele foi aperfeiçoado no AlphaGeometry 2.

IA ainda pode ter dificuldades com problemas do mundo real

Ao acertar quatro das seis questões e “conquistar” uma medalha de prata, o Google DeepMind mostra que é possível melhorar a capacidade de raciocínio lógico dos LLMs, combatendo sua tendência a alucinar e escrever qualquer coisa ao se deparar com uma situação deste tipo.

Mesmo assim, a abordagem ainda tem problemas. À Wired, David Silver, pesquisador do Google DeepMind que liderou os trabalhos do AlphaZero, explica que os modelos foram treinados para resolver testes, em que existem soluções corretas e erradas.

Isso significa que eles podem não se sair tão bem em problemas do mundo real, em que há muitas soluções possíveis, cada uma com suas vantagens e desvantagens. Silver acredita que a solução para isso possa ser um modelo de linguagem que tente determinar o que constitui uma resposta certa durante o treinamento.

O pesquisador também acredita que a IA será mais uma ferramenta, como calculadoras e réguas de cálculo. “Isso não é o fim do que os matemáticos podem fazer. Uma parte importante da matemática é propor problemas e descobrir quais são as perguntas são interessantes”, avalia o cientista.

Com informações: Google DeepMind, Bloomberg, Wired

Google diz que novas IAs resolvem problemas da Olimpíada de Matemática

Adicionar aos favoritos o Link permanente.