Engrama — Plataforma de Agente Cognitivo Operacional
Engrama transforma IA de resposta em IA de decisão. Memória multi-camada, hipóteses causais, estratégias operacionais, execução orientada por risco e aprendizado contínuo.
O Problema
Sistemas baseados em LLM operam num ciclo simples: pergunta → contexto → resposta. Isso é útil, mas limitado. Eles dependem demais do modelo, perdem coerência em tarefas complexas, respondem sem noção do estado real do sistema, repetem erros já cometidos, não persistem objetivos e explicam pouco o raciocínio.
A diferença entre "IA que responde" e "IA que decide" é uma arquitetura inteira.
A Abordagem
O LLM é apenas um componente dentro de um sistema maior — não é o sistema inteiro. A inteligência é distribuída entre memória, estado do mundo, hipóteses, regras, estratégias, confiança, risco e objetivos. Em vez de o modelo "descobrir tudo" em tempo real, o Engrama entrega ao LLM um estado de decisão estruturado, reduzindo alucinação, melhorando coerência e aumentando segurança operacional.
5 Princípios de Design
Inteligência fora do LLM
O raciocínio é distribuído entre memória, hipóteses, regras e estratégias. O modelo é um componente, não o sistema.
Memória estratificada
Diferentes tipos de conhecimento vivem em camadas: semântica, relacional, episódica, regras e estratégias.
Execução segura
Toda decisão é validada por confiança, risco, criticidade do componente e blast radius, com gates humanos.
Aprendizado contínuo
O sistema aprende com experiências, ajusta heurísticas, e agrupa conceitos falhos e bem-sucedidos.
Explicabilidade
O Engrama não só decide: explica por que decidiu, quais alternativas descartou e com qual evidência.
Arquitetura Cognitiva (9 Camadas)
Cada camada responde a uma pergunta cognitiva fundamental para estruturar o raciocínio antes que o LLM sequer seja invocado.
Interaction Layer
"O que foi pedido?" Entrada/saída de mensagens, integração multicanal e APIs.
Tools / Action Layer
"O que posso fazer?" Capacidade de agir, leitura de arquivos, execução de scripts, API calls.
Semantic Memory
"O que o sistema sabe?" Vault, documentação técnica, embeddings BGE.
Knowledge Graph
"Como as coisas se relacionam?" Neo4j, relações causais e dependências arquiteturais.
Context Fusion
"O que realmente importa?" Composição cognitiva, ranqueamento e eliminação de ruído.
Experiential Memory
"O que já aconteceu?" Episódios passados, reforço positivo/negativo com decay temporal.
Rule System
"Quais princípios se repetem?" Heurísticas abstraídas, canonical rules e gatilhos.
Strategy Memory
"Qual plano devo usar?" Memória procedural, success rate de estratégias.
Meta-Cognition
"Qual o melhor caminho? É seguro?" Orchestrator, Hypothesis, Goal Manager e Risk Engine.
Pipeline Cognitivo
Como o Engrama pensa do evento à execução, com fast-paths seguros e deep pipeline para complexidade.
Motores de Decisão
Hypothesis Engine
Gera múltiplas explicações causais pontuadas em vez de uma interpretação única. Melhora drasticamente diagnóstico técnico.
Decision Context Layer
Payload estruturado para o LLM: problema → estado → hipótese → plano → evidência. O LLM não precisa deduzir tudo do zero.
Confidence Engine
Unifica sinais (hipótese, taxa de sucesso, similaridade) em um score. Diferencia 'acho que sei' de 'tenho evidência para agir'.
Risk Engine
Avalia risco base, criticidade do componente e blast radius. Pode bloquear a ação e acionar Human-in-the-loop compulsório.
Goal Manager
Persistência de propósito. Cria objetivos, rastreia progresso e vincula metas. Transforma o sistema de reativo para orientado a objetivo.
Explanation Engine
Raciocínio contrastivo auditável. Toda decisão loga evidências e alternativas rejeitadas. Por que X e não Y.
O que diferencia o Engrama
| Capacidade | Engrama | RAG + LLM Tradicional |
|---|---|---|
| Arquitetura | LLM é um componente de um sistema cognitivo | LLM é o sistema inteiro |
| Memória | 5 tipos: semântica, relacional, experiencial, procedural, estado | Vetor simples ou curto prazo |
| Diagnóstico | Múltiplas hipóteses causais pontuadas | Interpretação única |
| Decisão | Estado estruturado (problema → hipótese → plano) | Resposta direta via prompt |
| Risco | Risk Engine + Blast radius + Human-in-the-loop | Executa ferramentas sem avaliar |
| Explicabilidade | Raciocínio contrastivo e audit trail | Caixa preta do LLM |
| Propósito | Orientado a objetivo (Goal Manager) | Reativo a query isolada |
| Aprendizado | Learning Engine contínuo (CCEL) | Não aprende autonomamente |
Auto-evolução (CCEL)
Continuous Cognitive Evolution Loop. Após cada tarefa, avaliação ponderada de precisão, clareza e eficiência. Se score < 8.0, propõe melhorias submetidas a uma mutation policy segura via GitOps.
Orquestração Multi-Agente
Orquestrador central delega para agentes especialistas. Contrato conversacional rígido: especialistas não falam com o usuário, apenas devolvem payloads estruturados para a síntese final.
Casos de Uso
- • AI SRE / Incident response automatizado
- • Troubleshooting técnico guiado por hipóteses
- • Operação de ambientes Kubernetes
- • Runbooks inteligentes e automação progressiva
- • Copiloto de engenharia com memória persistente
Maturidade
Arquiteturalmente completo (MVP). Operacional em alta segurança sob autonomia graduada — análise autônoma, recomendação e execução assistida via gates.
Segurança e Governança
-
Human-in-the-loop compulsório
Exigido quando risco > 0.8 e confiança < 0.6.
-
Mutation Policy
O Engrama propõe heurísticas e regras, mas nunca as aplica diretamente sem governança.
-
Audit Trail Total
Toda ação logada com o porquê foi escolhida e quais opções foram descartadas (raciocínio contrastivo).
Tech Stack
A automação cognitiva é o próximo passo.
Discuta o Engrama com nossos arquitetos e veja como implementá-lo no seu contexto.