Produto Cognitivo

Engrama — Plataforma de Agente Cognitivo Operacional

Engrama transforma IA de resposta em IA de decisão. Memória multi-camada, hipóteses causais, estratégias operacionais, execução orientada por risco e aprendizado contínuo.

> Think. Decide. Execute. Learn.

O Problema

Sistemas baseados em LLM operam num ciclo simples: pergunta → contexto → resposta. Isso é útil, mas limitado. Eles dependem demais do modelo, perdem coerência em tarefas complexas, respondem sem noção do estado real do sistema, repetem erros já cometidos, não persistem objetivos e explicam pouco o raciocínio.

A diferença entre "IA que responde" e "IA que decide" é uma arquitetura inteira.

A Abordagem

O LLM é apenas um componente dentro de um sistema maior — não é o sistema inteiro. A inteligência é distribuída entre memória, estado do mundo, hipóteses, regras, estratégias, confiança, risco e objetivos. Em vez de o modelo "descobrir tudo" em tempo real, o Engrama entrega ao LLM um estado de decisão estruturado, reduzindo alucinação, melhorando coerência e aumentando segurança operacional.

5 Princípios de Design

Inteligência fora do LLM

O raciocínio é distribuído entre memória, hipóteses, regras e estratégias. O modelo é um componente, não o sistema.

Memória estratificada

Diferentes tipos de conhecimento vivem em camadas: semântica, relacional, episódica, regras e estratégias.

Execução segura

Toda decisão é validada por confiança, risco, criticidade do componente e blast radius, com gates humanos.

Aprendizado contínuo

O sistema aprende com experiências, ajusta heurísticas, e agrupa conceitos falhos e bem-sucedidos.

Explicabilidade

O Engrama não só decide: explica por que decidiu, quais alternativas descartou e com qual evidência.

Arquitetura Cognitiva (9 Camadas)

Cada camada responde a uma pergunta cognitiva fundamental para estruturar o raciocínio antes que o LLM sequer seja invocado.

L1
Interaction Layer

"O que foi pedido?" Entrada/saída de mensagens, integração multicanal e APIs.

L2
Tools / Action Layer

"O que posso fazer?" Capacidade de agir, leitura de arquivos, execução de scripts, API calls.

L3
Semantic Memory

"O que o sistema sabe?" Vault, documentação técnica, embeddings BGE.

L4
Knowledge Graph

"Como as coisas se relacionam?" Neo4j, relações causais e dependências arquiteturais.

L5
Context Fusion

"O que realmente importa?" Composição cognitiva, ranqueamento e eliminação de ruído.

L6
Experiential Memory

"O que já aconteceu?" Episódios passados, reforço positivo/negativo com decay temporal.

L7
Rule System

"Quais princípios se repetem?" Heurísticas abstraídas, canonical rules e gatilhos.

L8
Strategy Memory

"Qual plano devo usar?" Memória procedural, success rate de estratégias.

L9
Meta-Cognition

"Qual o melhor caminho? É seguro?" Orchestrator, Hypothesis, Goal Manager e Risk Engine.

Pipeline Cognitivo

Como o Engrama pensa do evento à execução, com fast-paths seguros e deep pipeline para complexidade.

Motores de Decisão

Hypothesis Engine

Gera múltiplas explicações causais pontuadas em vez de uma interpretação única. Melhora drasticamente diagnóstico técnico.

Decision Context Layer

Payload estruturado para o LLM: problema → estado → hipótese → plano → evidência. O LLM não precisa deduzir tudo do zero.

Confidence Engine

Unifica sinais (hipótese, taxa de sucesso, similaridade) em um score. Diferencia 'acho que sei' de 'tenho evidência para agir'.

Risk Engine

Avalia risco base, criticidade do componente e blast radius. Pode bloquear a ação e acionar Human-in-the-loop compulsório.

Goal Manager

Persistência de propósito. Cria objetivos, rastreia progresso e vincula metas. Transforma o sistema de reativo para orientado a objetivo.

Explanation Engine

Raciocínio contrastivo auditável. Toda decisão loga evidências e alternativas rejeitadas. Por que X e não Y.

O que diferencia o Engrama

Capacidade Engrama RAG + LLM Tradicional
Arquitetura LLM é um componente de um sistema cognitivo LLM é o sistema inteiro
Memória 5 tipos: semântica, relacional, experiencial, procedural, estado Vetor simples ou curto prazo
Diagnóstico Múltiplas hipóteses causais pontuadas Interpretação única
Decisão Estado estruturado (problema → hipótese → plano) Resposta direta via prompt
Risco Risk Engine + Blast radius + Human-in-the-loop Executa ferramentas sem avaliar
Explicabilidade Raciocínio contrastivo e audit trail Caixa preta do LLM
Propósito Orientado a objetivo (Goal Manager) Reativo a query isolada
Aprendizado Learning Engine contínuo (CCEL) Não aprende autonomamente

Auto-evolução (CCEL)

Continuous Cognitive Evolution Loop. Após cada tarefa, avaliação ponderada de precisão, clareza e eficiência. Se score < 8.0, propõe melhorias submetidas a uma mutation policy segura via GitOps.

Orquestração Multi-Agente

Orquestrador central delega para agentes especialistas. Contrato conversacional rígido: especialistas não falam com o usuário, apenas devolvem payloads estruturados para a síntese final.

Casos de Uso

  • AI SRE / Incident response automatizado
  • Troubleshooting técnico guiado por hipóteses
  • Operação de ambientes Kubernetes
  • Runbooks inteligentes e automação progressiva
  • Copiloto de engenharia com memória persistente

Maturidade

Arquiteturalmente completo (MVP). Operacional em alta segurança sob autonomia graduada — análise autônoma, recomendação e execução assistida via gates.

Segurança e Governança

  • Human-in-the-loop compulsório

    Exigido quando risco > 0.8 e confiança < 0.6.

  • Mutation Policy

    O Engrama propõe heurísticas e regras, mas nunca as aplica diretamente sem governança.

  • Audit Trail Total

    Toda ação logada com o porquê foi escolhida e quais opções foram descartadas (raciocínio contrastivo).

Tech Stack

Runtime
OpenClaw
Backend
Node.js 22
LLM Primário
DeepSeek (Local)
Grafo L4
Neo4j
Memória Local L6/L8
SQLite
Embeddings / Semântica
BGE / Obsidian

A automação cognitiva é o próximo passo.

Discuta o Engrama com nossos arquitetos e veja como implementá-lo no seu contexto.