Il contesto non è un serbatoio. Potrebbe essere una lente.

Più informazione dai all'AI, meno capisce. La vera sfida non è la capienza della finestra di contesto — è decidere cosa metterci dentro.

La corsa alle finestre di contesto più grandi è ovunque. Milioni di token. L’intero codebase in un colpo. L’idea è semplice: se l’AI può vedere tutto, capirà tutto.

Lavorando al mio progetto — un sistema che genera applicazioni attraverso una comprensione strutturale del dominio — mi sono trovato a testare questa idea sulla mia pelle.

Il flusso che avevo costruito dava all’AI accesso a tutto il contesto disponibile. Ogni informazione, ogni dettaglio, ogni pezzo del quadro. Il risultato? L’output peggiorava. Non di poco — in modo evidente. L’AI produceva risposte più generiche, meno focalizzate, come se avesse perso il senso di cosa contasse davvero.

Ho perso giorni prima di capire il meccanismo. Non era un problema di capacità. Era un problema di selezione. Il sistema riceveva tutto e non sapeva cosa privilegiare. Come aprire un rubinetto al massimo e aspettarsi che l’acqua vada esattamente dove serve.

Da lì il ragionamento è cambiato. Ho iniziato a pensare al contesto non come a qualcosa da massimizzare, ma come qualcosa da scegliere. La domanda è diventata: quale informazione serve in questo momento preciso? Non domani, non in generale — adesso. E soprattutto: qual è la domanda giusta da fare?

Il flusso si è trasformato. Invece di scaricare tutto il contesto disponibile, il sistema ha iniziato a selezionare. A filtrare. A decidere cosa guardare prima di generare. Il miglioramento non è stato incrementale — è stato un salto.

La cosa che mi ha colpito di più è che non avevo letto nulla sulla “context engineering” quando ci sono arrivato. Ci sono arrivato dai fallimenti. L’AI che sapeva troppo e capiva meno — non è un paradosso. È quello che succede quando confondi la quantità di informazione con la qualità della comprensione.

Oggi vedo articoli ovunque sulla gestione del contesto come nuova disciplina. Su come le finestre di contesto fragili siano uno dei limiti reali degli agenti AI in produzione. Mi chiedo se il settore stia scoprendo strada facendo quello che nel mio piccolo ho incontrato mesi fa: che il contesto non è un problema di capienza.

Potrebbe essere un problema di intelligenza. Non dell’AI — di chi decide cosa darle in pasto.

Sento che questa distinzione — serbatoio vs lente — potrebbe essere una delle più importanti nel modo in cui progettiamo sistemi che collaborano con l’AI. Non so se ho ragione. Ma da quando ho smesso di aggiungere contesto e ho iniziato a sceglierlo, il sistema funziona meglio. E io capisco meglio cosa sta facendo.