Um modelo inspirado no cérebro que desafia os gigantes da inteligência artificial
Nos últimos anos, a inteligência artificial foi dominada pelos LLMs (Large Language Models), como o GPT-4, o GPT-5 e o Claude. Esses modelos se destacaram pela capacidade de produzir texto, responder perguntas e até escrever código. Mas o preço desse avanço foi alto: centenas de bilhões de parâmetros, treinamento em toda a internet e supercomputadores consumindo grandes quantidades de energia.
Agora, em 2025, surge uma proposta diferente. Um modelo chamado HRM (Hierarchical Reasoning Model), com apenas 27 milhões de parâmetros, alcançou resultados surpreendentes em tarefas de raciocínio. O feito levanta uma pergunta importante: será que o futuro da IA depende apenas de modelos cada vez maiores ou podemos evoluir com arquiteturas mais inteligentes?

O que são LLMs?
LLM significa Large Language Model, ou “modelo de linguagem de grande porte”. Esses modelos funcionam de forma estatística: analisam imensos volumes de texto da internet e aprendem padrões de como as palavras aparecem em sequência.
- Parâmetros: são números ajustados durante o treinamento que representam esse aprendizado. Modelos como GPT-5 têm trilhões de parâmetros.
- Treinamento: feito em grandes quantidades de texto da internet (livros, sites, artigos, redes sociais).
- Capacidade: excelente para gerar linguagem, mas nem sempre confiável para raciocínio complexo.
- Limitações: precisam de chain of thought prompting, ou seja, instruções para “pensar passo a passo”.
Em resumo, os LLMs são ótimos em prever a próxima palavra, mas nem sempre entendem ou raciocinam como humanos.
O que é o HRM?
O HRM, ou Hierarchical Reasoning Model, propõe uma abordagem inspirada no funcionamento do cérebro. Ele não tenta memorizar a internet, mas sim aprender a raciocinar em camadas hierárquicas.
O HRM possui dois módulos principais:
- H-Module (High level module): funciona como um “planejador estratégico”. Pensa de forma lenta e abstrata.
- L-Module (Low level module): atua como um “executor tático”. Trabalha rápido, cuidando dos detalhes e cálculos necessários.
Esses módulos interagem em ciclos até encontrarem uma solução. Um mecanismo de aprendizado por reforço (chamado Q-Learning) decide quando parar o processo.
Diferente dos LLMs, o HRM:
- Não precisa de bilhões de parâmetros.
- Não depende de treinar em toda a internet.
- Não precisa de chain of thought prompting.
- Roda em hardware comum, sem supercomputadores.
Diferenças principais: LLM x HRM
| Aspecto | LLM | HRM |
|---|---|---|
| Tamanho | Bilhões ou trilhões de parâmetros | 27 milhões de parâmetros |
| Treinamento | Em toda a internet | Apenas 1.000 exemplos específicos |
| Energia | Supercomputadores e alto custo | Treinável em hardware comum |
| Estilo de raciocínio | Previsão de próximas palavras | Processamento hierárquico inspirado no cérebro |
| Chain of thought | Necessário | Não necessário |
| Força principal | Geração de texto e linguagem | Raciocínio estruturado e resolução de problemas |
Resultados do HRM
Com apenas 1.000 exemplos de treino, o HRM já conseguiu:
- Resolver Sudoku-Extreme com 55% de acerto (outros modelos ficaram em 0%).
- Encontrar caminhos ótimos em labirintos 30×30 em 74,5% das vezes (outros modelos não passaram de 0%).
- Alcançar 40,3% no benchmark ARC-AGI, superando modelos muito maiores.
O ARC-AGI é importante porque mede a capacidade de resolver problemas sem depender de padrões estatísticos. O HRM se destacou justamente por isso.
Termos explicados
- Parâmetros: números que representam o conhecimento do modelo. Quanto mais parâmetros, maior a capacidade, mas também maior o custo.
- Pré-treinamento: processo de alimentar o modelo com grandes volumes de dados.
- Chain of thought prompting: técnica em que o usuário pede que o modelo explique o raciocínio passo a passo.
- Q-Learning: método de aprendizado por reforço que ajuda a decidir quando parar ou continuar um cálculo.
- ARC-AGI: conjunto de testes criado para medir a capacidade de raciocínio e abstração de uma IA.
O que está em jogo
- Escala não é tudo: o HRM mostra que uma arquitetura bem desenhada pode superar a simples expansão de parâmetros.
- Sustentabilidade: grandes modelos consomem energia em escala industrial. O HRM é mais leve e menos custoso.
- Aplicações práticas: pode ser usado em robótica, educação e dispositivos móveis, onde modelos gigantes não cabem.
Referências
- Wang, G. et al. Hierarchical Reasoning Model. arXiv, 26 jun. 2025. Disponível em: https://arxiv.org/abs/2506.21734
- ARC Prize. Analysis of HRM. 2025. Disponível em: https://arcprize.org/blog/hrm-analysis
- Into AI. Hierarchical Reasoning Model Explained. Disponível em: https://intoai.pub/p/hierarchical-reasoning-model
- Reddit — Discussão da comunidade: Sapient’s new 27M parameter HRM. Disponível em: https://www.reddit.com/r/DeepSeek





