Memoria persistente para IA conversacional
iLAB Memory es una librería de memoria persistente para agentes de IA. Corre dentro del proceso de tu aplicación — como SQLite o un ORM — para que tu chatbot, asistente de voz o agente recuerde a un usuario entre sesiones, días y reinicios. Sin servidor remoto, sin base de datos vectorial, sin infraestructura extra.
Por qué iLAB Memory
Embebible, cero ops
Se importa como librería Python y persiste localmente en SQLite. Nada de SaaS que desplegar, nada de servicio que operar, ningún token saliendo de tu stack.
SQLite + FTS5
Búsqueda full-text incluida vía las virtual tables FTS5 de SQLite. No hace falta base de datos vectorial en v0.1 — la búsqueda por keywords es rápida y predecible.
Privacy-first
Envolvé secretos en <private>...</private> y se eliminan antes del hash, dedup o persistencia. El contenido sensible nunca toca el storage.
Upsert por topic_key
Saves idempotentes sobre el mismo topic_key — sin explosión de duplicados cuando un tema evoluciona entre turnos.
Sessions con scoring
Scoring de recency y revision incluido. La search y el context usan fórmulas distintas para que cada superficie optimice su propia intención.
Doble API
Usalo como librería Python, exponelo por HTTP REST (FastAPI), o conectalo a IDEs y agentes vía MCP stdio. Ambas APIs serializan los mismos modelos Pydantic.
Para quién es
Devs de bots
Construyendo un bot de Teams, Slack o WhatsApp que necesita recordar a cada usuario entre días.
Devs de apps
Embebiendo memoria en una app desktop con Tauri o Electron donde el usuario es dueño de su data localmente.
Devs de agentes
Construyendo agentes Python autónomos que necesitan contexto persistente entre ejecuciones.
Qué NO es
- No es una base de datos vectorial. v0.1 trae búsqueda por keywords vía FTS5 — la búsqueda semántica con embeddings está en el roadmap.
- No es un SaaS remoto. Lo embebés en tu app; vos sos dueño del archivo de base de datos. No hay servicio hosteado al que suscribirse.
- No es un framework de agentes. Es la capa de storage. Vos traés el LLM, la orquestación del prompt y la lógica de negocio.
Próximos pasos
Quickstart
De cero a tu primera observación guardada y recuperada en menos de 5 minutos.