Primero iniciá la hackathon
Tenés que completar tu nombre y contraseña antes de entrar al contenido del día.
El contexto es el recurso, no un detalle
En el Bloque 5 dijimos que el contexto es un first-party citizen. Este bloque es la versión en serio de esa idea.
Cuando le pedís algo a un agente, lo que entra en su "ventana de contexto" es todo lo que tiene para decidir qué hacer: tu mensaje, los archivos que leyó, los outputs de los comandos, los resúmenes de turnos anteriores. La ventana es grande, pero no infinita — y la atención del modelo se degrada a medida que se llena.
Context engineering es la disciplina de elegir qué entra en esa ventana, cuándo, y cómo. No se trata de meter más información — se trata de meter la correcta, en el momento correcto.
Resumen sin detalle (el detalle está en las referencias)
1. El contexto es un presupuesto — gastalo bien
La ventana de contexto funciona como un presupuesto: cada token que ocupa un archivo, un log o una conversación es un token que el modelo no puede usar para pensar. Más no siempre es mejor — de hecho, muchas veces es peor. Los modelos pierden precisión cuando tienen que atender a demasiado al mismo tiempo (el fenómeno conocido como context rot).
Implicación práctica: si el agente está raro, tu primer reflejo no es darle más información — es limpiar la conversación. Un /clear bien puesto arregla más cosas que 5 intentos de re-explicarle.
2. Retrieval selectivo > dump masivo
Mejor que el agente busque lo que necesita cuando lo necesita a que le tires toda la documentación desde el primer mensaje. Un agente que sabe usar grep, Read y herramientas de búsqueda va a encontrar lo relevante en el momento. Pedirle al LLM que "razonar sobre 40 archivos en paralelo" suele salir peor que decirle "leé estos 3 primero".
3. Estructura > volumen
Un CLAUDE.md corto y bien organizado rinde más que un "gran dump" de documentación. Lo mismo con los prompts: decir "rol, objetivo, restricciones, formato de salida" en 10 líneas funciona mejor que párrafos ambiguos. La forma es parte del contenido.
Dos archivos que el agente lee solo: CLAUDE.md (en la raíz del proyecto — convenciones del repo) y MEMORY.md (auto-memory del agente — cosas que aprendió de vos entre sesiones, como tus preferencias o decisiones que tomaste). Los dos son el workaround de "el LLM no tiene memoria": el framework se los inyecta al arrancar.
4. Compactá antes de que se llene
Cuando la conversación se está haciendo larga, el agente empieza a olvidar el principio. La solución no es pelearle — es comprimir: un resumen explícito de "hasta acá" para que la parte vieja salga y entre la parte nueva. Claude Code tiene /compact para hacerlo. Hacelo proactivo, no cuando ya se rompió.
Cinco reflejos que usás desde esta tarde
- Empezá limpio — nueva tarea = nueva conversación. No arrastres el contexto de la tarea anterior "por si acaso".
- Un
CLAUDE.mdbreve en cada repo — 20 líneas que digan qué stack usás, qué convenciones respetás, y qué NO hacer. El agente lo lee solo al arrancar. - Pedile al agente que planee antes de ejecutar — "antes de tocar nada, decime qué vas a hacer". Revisás el plan, corregís, y recién ahí que ejecute. Evita ir por el camino equivocado 20 minutos.
- Si la conversación pasa los 20-30 turnos,
/compact— comprimilo vos antes de que el agente empiece a alucinar porque ya no "ve" el principio. - No le des archivos que no va a necesitar — si el task es "tocar solo
reporte.py", no le adjuntes los 15 archivos del proyecto. El filtrado lo hacés vos.
Ejemplo: dos formas de pedir lo mismo
La misma tarea — "corregí un bug en el script" — pedida con y sin contexto cuidado:
Hay un error en el código. Leé todo el proyecto y arreglalo.
En scripts/reporte.py, la función `agrupar_por_area` devuelve dict vacío
cuando el CSV tiene más de 100 filas. Leé sólo ese archivo y el CSV de
muestra en datos/sample.csv. No toques el resto del proyecto.
Antes de modificar, decime qué pensás que está pasando.
El segundo (1) limita qué archivos abre el agente, (2) le da un síntoma observable, y (3) le pide planear antes de ejecutar. Resultado: usa menos contexto, encuentra el bug más rápido, y no te "refactoriza" medio proyecto al paso.
Context engineering, explicado por Anthropic
Si querés ver todo lo de arriba aterrizado con ejemplos reales, este video es la versión en movimiento del post de Effective context engineering. Cubre los mismos cuatro principios (compactación, sub-agentes, retrieval selectivo, estructura) con casos del día a día.
Si querés ir al detalle
Estas son las fuentes que están atrás del resumen. No hace falta leerlas para la hackathon — son para cuando tengas curiosidad.
Tres ejercicios de 5 minutos
- Abrí tu proyecto del Bloque 3 y escribile un
CLAUDE.mdde 15-20 líneas: stack, convenciones, qué no hacer. Cerrá y volvé a abrir Claude Code — mirá si cambia cómo responde. - Probá
/compacten una conversación larga del Bloque 5 o 6. Mirá el resumen que genera — es una buena pista de "qué entendió el modelo hasta ahora". - Hacé el experimento del bug arriba: pedí primero sin acotar, después acotando. Compará qué hace el agente en cada caso.
¿Lo hiciste y lo entendés?
Cómo aplica a tu forma de trabajar
- Pensá en la última vez que el agente te "falló" — ¿fue un problema del modelo, o le diste demasiada/poca información?
- Si tuvieras que escribir un
CLAUDE.mdpara tu área (no para un proyecto, para tu rol), ¿qué 5 cosas pondrías para que un agente te entienda? - ¿Qué tareas hacés hoy donde "el contexto relevante" está disperso en Slack, Drive, Notion? Ese dispersión es la razón por la que los agentes cuestan — antes de escalar, hay que organizar.