Memória, agentes e o Second Brain

O Karpathy publicou um gist sobre LLM Knowledge Bases. Tenho tentado organizar minhas próprias informações, podcasts, anotações e reflexões em um wiki parecido. A ideia central: em vez de o LLM gerar respostas toda vez a partir de documentos brutos (como faz o RAG), ele constrói e mantém uma wiki persistente. Cada nova fonte é integrada, cross-linkada, sintetizada. O conhecimento é compilado uma vez e mantido atualizado. Como ele coloca:

Humans abandon wikis because the maintenance burden grows faster than the value. LLMs don’t get bored.

Eu gravo pensamentos por voz e o LLM organiza em nodes de conhecimento. O conteúdo é meu. A manutenção é da máquina. Karpathy de novo:

The human’s job is to curate sources, direct the analysis, ask good questions, and think about what it all means. The LLM’s job is everything else.

Só que a maioria dos projetos de “Second Brain” vai na direção oposta: mais ingestão, mais fontes, mais dados. Soluções como OpenClaw prometem bots que fazem tudo e integram diferentes frentes de trabalho. Objetivo? Ser humano 10.000x. Esse ingest de informação acaba sendo absurdamente maior. Como disse um amigo meu, sênior em uma das big techs de AI lá fora:

tá um saco, todo dia tem 5 anúncios revolucionários de alguém que fez um Second Brain. Quando eu preciso organizar meus pensamentos eu vou lá fora e fico olhando pras montanhas tomando um chá. Esse tesão por multiplicar o próprio output ou “se copiar” pra economizar trabalho acabou causando muito mais trabalho pra todo mundo em volta

Zettelkasten

Precisamos dar passos menores. Organizar o que já escrevemos e falamos, como no zettelkasten. E não tentar capturar a internet inteira através de claws, garras e robôs.

Pessoalmente, estou tentando ingerir apenas os sinais que eu consigo digerir. Não quero pedir pra um bot buscar aleatoriamente um volume monstruoso sobre assunto qualquer. O termo second brain diz bastante: é um segundo cérebro, não 10 mil cérebros. Estamos cansados de tantos estímulos. O excesso de ruído atrapalha até a máquina. Fica muito difícil separar o signal versus noise.

Esse problema da memória está aparecendo em diversos projetos open source. No Hermes Agent, com profiles isolados com MEMORY.md e SOUL.md (memória flat, sem decay). No Mem0, um memory layer para agentes com vários mecanismos de retenção. No Cabinet, que usa markdown no disco com git e agentes com cron. Tem também o Agent Second Brain com Ebbinghaus decay e o PaperClip. Para onde olhar, qual escolher?

City Daemons — Daniel Miessler

O Daniel Miessler desenhou um sistema pessoal sofisticado (talvez demais). Ele chama de Personal AI Infrastructure. E também definiu como Daemon isso que parece estar acontecendo: uma API pessoal que cada pessoa tem. Hoje essas APIs são menorzinhas: nosso site, nosso Twitter, nosso calendar com invite automático, nosso botzinho do Telegram. Vai ser avassalador o crescimento dos nano serviços pessoais. Daniel chega a vislumbrar uma AURA visível com Augmented Reality: uma listagem das APIs que cada pessoa oferece. Um “/menu” do meu bot de Telegram, só que basta me olhar para acioná-lo.

Personal Daemon — Daniel Miessler

O Pedro Franceschi, da Brex, contou que roda a empresa via OpenClaw. O sistema dele começa com um signal ingestion pipeline que filtra email, Slack, Google Docs, WhatsApp. A sacada: as ferramentas de produtividade com IA falham porque não assumem que o mundo é barulhento. Milhares de canais no Slack, centenas de emails por dia. O que importa? No que prestar atenção?

O Stephen Wolfram coleta dados pessoais da própria vida há décadas. Tudo vira dado. Com LLMs, a utilidade só cresce. Mas fica a questão de privacidade.

Chegou a hora de usar a inteligência artificial para guardar, anotar e ver aquilo que de fato selecionamos, e para tirar o ruído disso. Não para aumentar a quantidade de conteúdo a consumir. Precisamos diminuir a boca do funil, não aumentá-lo.

O que estou tentando construir tem 3 camadas:

Observe: ver o que os agentes estão fazendo, navegar nos signals e vaults. O Karpathy usa Obsidian como frontend da wiki. Eu uso um dashboard que mostra as vaults, o grafo de conexões, e notas publicáveis que saem direto de áudios.

Operate: agir cross-vault. Mover signals, reclassificar, mergear drafts, rodar pipelines.

Orchestrate: um meta-agente com contexto de todos os vaults, que sabe orquestrar os outros. É o Advocate do Miessler, o Q&A Agent do Karpathy que “compounds” conhecimento a cada pergunta.

No meu caso, gravo um áudio no Telegram, o Whisper transcreve, o Opus classifica, o Sonnet sintetiza num node de conhecimento, e o resultado aparece no grafo de signals. Se gosto, promovo pra note e publico. O pipeline inteiro roda em 15 segundos. Mais: ele cross linka com artigos e podcasts que já gravei. Dá pra refletir em cima do que já existe. Sem inventar.

Grafo de signals do paulo.com.br — cada nó é um conceito, signal ou post, conectados por menções e tags compartilhadas

Hoje eu faço as 3 camadas sentado no Claude Code, orquestrando 3 repos. Funciona, mas o contexto se perde a cada sessão. O que quero é que isso vire algo persistente. Cada interação vira um signal, inclusive o JSONL que o Claude Code guarda das sessões.

É um conceito, uma ideia. Não um PRD. Acredito que cada pessoa terá um mecanismo de vault bem particular. Não uma UX unificada. Não um formato estruturado único em uma catedral, e sim um bazar de Markdown, YAML e JSONL e afins. Ninguém vai baixar um open source que resolve. Cada pessoa vai fabricar algo parecido com um tecido retalhado, uma mistura de código estático e prompt, onde um retroalimenta o outro. É um disposable software mutante. O sistema evolui com a forma que você pensa e trabalha.

E esse sistema vai ser importante para você organizar os seus próprios pensamentos. Não os de 10 mil outras pessoas e feeds infinitos. Foque no seu próprio conteúdo, nos seus pensamentos. Trabalhe com eles.

Você também pode gostar