José Telmo

Inteligência Artificial: HRM vai superar o LLM?

Um modelo inspirado no cérebro que desafia os gigantes da inteligência artificial

Nos últimos anos, a inteligência artificial foi dominada pelos LLMs (Large Language Models), como o GPT-4, o GPT-5 e o Claude. Esses modelos se destacaram pela capacidade de produzir texto, responder perguntas e até escrever código. Mas o preço desse avanço foi alto: centenas de bilhões de parâmetros, treinamento em toda a internet e supercomputadores consumindo grandes quantidades de energia.

Agora, em 2025, surge uma proposta diferente. Um modelo chamado HRM (Hierarchical Reasoning Model), com apenas 27 milhões de parâmetros, alcançou resultados surpreendentes em tarefas de raciocínio. O feito levanta uma pergunta importante: será que o futuro da IA depende apenas de modelos cada vez maiores ou podemos evoluir com arquiteturas mais inteligentes?

O que são LLMs?

LLM significa Large Language Model, ou “modelo de linguagem de grande porte”. Esses modelos funcionam de forma estatística: analisam imensos volumes de texto da internet e aprendem padrões de como as palavras aparecem em sequência.

  • Parâmetros: são números ajustados durante o treinamento que representam esse aprendizado. Modelos como GPT-5 têm trilhões de parâmetros.
  • Treinamento: feito em grandes quantidades de texto da internet (livros, sites, artigos, redes sociais).
  • Capacidade: excelente para gerar linguagem, mas nem sempre confiável para raciocínio complexo.
  • Limitações: precisam de chain of thought prompting, ou seja, instruções para “pensar passo a passo”.

Em resumo, os LLMs são ótimos em prever a próxima palavra, mas nem sempre entendem ou raciocinam como humanos.

O que é o HRM?

O HRM, ou Hierarchical Reasoning Model, propõe uma abordagem inspirada no funcionamento do cérebro. Ele não tenta memorizar a internet, mas sim aprender a raciocinar em camadas hierárquicas.

O HRM possui dois módulos principais:

  • H-Module (High level module): funciona como um “planejador estratégico”. Pensa de forma lenta e abstrata.
  • L-Module (Low level module): atua como um “executor tático”. Trabalha rápido, cuidando dos detalhes e cálculos necessários.

Esses módulos interagem em ciclos até encontrarem uma solução. Um mecanismo de aprendizado por reforço (chamado Q-Learning) decide quando parar o processo.

Diferente dos LLMs, o HRM:

  • Não precisa de bilhões de parâmetros.
  • Não depende de treinar em toda a internet.
  • Não precisa de chain of thought prompting.
  • Roda em hardware comum, sem supercomputadores.

Diferenças principais: LLM x HRM

AspectoLLMHRM
TamanhoBilhões ou trilhões de parâmetros27 milhões de parâmetros
TreinamentoEm toda a internetApenas 1.000 exemplos específicos
EnergiaSupercomputadores e alto custoTreinável em hardware comum
Estilo de raciocínioPrevisão de próximas palavrasProcessamento hierárquico inspirado no cérebro
Chain of thoughtNecessárioNão necessário
Força principalGeração de texto e linguagemRaciocínio estruturado e resolução de problemas

Resultados do HRM

Com apenas 1.000 exemplos de treino, o HRM já conseguiu:

  • Resolver Sudoku-Extreme com 55% de acerto (outros modelos ficaram em 0%).
  • Encontrar caminhos ótimos em labirintos 30×30 em 74,5% das vezes (outros modelos não passaram de 0%).
  • Alcançar 40,3% no benchmark ARC-AGI, superando modelos muito maiores.

O ARC-AGI é importante porque mede a capacidade de resolver problemas sem depender de padrões estatísticos. O HRM se destacou justamente por isso.

Termos explicados

  • Parâmetros: números que representam o conhecimento do modelo. Quanto mais parâmetros, maior a capacidade, mas também maior o custo.
  • Pré-treinamento: processo de alimentar o modelo com grandes volumes de dados.
  • Chain of thought prompting: técnica em que o usuário pede que o modelo explique o raciocínio passo a passo.
  • Q-Learning: método de aprendizado por reforço que ajuda a decidir quando parar ou continuar um cálculo.
  • ARC-AGI: conjunto de testes criado para medir a capacidade de raciocínio e abstração de uma IA.

O que está em jogo

  • Escala não é tudo: o HRM mostra que uma arquitetura bem desenhada pode superar a simples expansão de parâmetros.
  • Sustentabilidade: grandes modelos consomem energia em escala industrial. O HRM é mais leve e menos custoso.
  • Aplicações práticas: pode ser usado em robótica, educação e dispositivos móveis, onde modelos gigantes não cabem.

Referências

José Telmo

Publicitário, Professor de Marketing Digital, filósofo multimídia e nerd!

Your Header Sidebar area is currently empty. Hurry up and add some widgets.

José Telmo
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.