Como o A-MEM transforma a gestão de memória em IA para tarefas mais complexas

Leandro Lopes
4 Min de Leitura
Como o A-MEM transforma a gestão de memória em IA para tarefas mais complexas

Pesquisadores da Rutgers University, Ant Group e Salesforce Research desenvolveram um novo framework para agentes de IA resolverem tarefas mais desafiadoras. O A-MEM integra informações do ambiente e gera memórias interligadas automaticamente para criar estruturas avançadas.

Chamado de A-MEM, esse sistema utiliza modelos de linguagem (LLMs) e embeddings vetoriais para organizar e recuperar informações de forma eficiente. Com o crescimento no uso de agentes de IA nas operações corporativas, uma gestão de memória confiável faz toda a diferença.

Por que a memória é crucial para LLMs?

Memória em LLMs é o que permite interações prolongadas e contextuais entre ferramentas e usuários. Hoje, a maioria dos sistemas é ineficiente ou baseada em esquemas fixos, o que dificulta a adaptação ao dinamismo das aplicações e interações.

“Essas estruturas rígidas limitam a capacidade de generalização dos agentes e comprometem a eficácia nas interações de longo prazo”, observam os pesquisadores. Isso se torna ainda mais crítico quando lidamos com tarefas abertas e complexas que exigem organização de conhecimento flexível.

O funcionamento do A-MEM

O A-MEM apresenta uma arquitetura de memória que promove autonomia e flexibilidade. Sempre que um agente de IA interage com seu ambiente, seja por meio de ferramentas ou mensagens, o sistema cria “notas de memória estruturadas. Essas notas incluem informações explícitas e metadados como tempo, descrição contextual, palavras-chave e conexões com outras memórias.

Para cada memória criada, um modelo codificador calcula os valores de embedding. Essa união de componentes semânticos e embeddings melhora tanto a interpretação humana quanto a recuperação eficiente das informações.

Criando conexões ao longo do tempo

O grande diferencial do A-MEM é sua capacidade de vincular notas de memória de forma dinâmica, sem depender de regras fixas. A cada nova memória, as mais relevantes são identificadas com base nos valores de embedding. Em seguida, o LLM analisa o conteúdo dessas memórias para estabelecer as conexões mais adequadas.

Essa abordagem, baseada em embeddings, permite escalabilidade sem comprometer a relevância semântica. Mais importante, a análise conduzida pelo LLM identifica relações que vão além de simples similaridades entre dados.

Ao longo do tempo, o sistema refina as estruturas de conhecimento com a adição de novas memórias. Isso possibilita descobrir padrões e conceitos mais avançados.

Quando há uma nova interação, o A-MEM usa a recuperação de memória baseada no contexto para fornecer dados históricos relevantes. Um valor de embedding é calculado para o novo prompt, e as memórias mais pertinentes são recuperadas para enriquecer a resposta do agente.

Resultados e aplicações

Os pesquisadores testaram o A-MEM no conjunto de dados LoCoMo, que inclui conversas longas e desafiadoras. Os testes mostraram que o A-MEM supera outras técnicas de memória, especialmente em modelos de código aberto, reduzindo custos de inferência e utilizando até 10 vezes menos tokens por resposta.

Com o avanço dos agentes de IA em fluxos de trabalho complexos, frameworks como o A-MEM estão se tornando essenciais para criar sistemas que aprendem e se adaptam continuamente. Quer saber mais sobre como IA está impactando o mercado? Explore dicas práticas para agentes de IA.

Compartilhe