Cosa significa 'giusto' per un'AI che decide in autonomia?

3 milioni di agenti AI nelle aziende. Tutti parlano di monitoraggio. Ma chi ha definito cosa dovrebbero volere?

Cosa significa “giusto” per un’AI che decide in autonomia?

È la domanda che mi gira in testa da settimane. Non è partita da un articolo, non è partita da un framework. È partita da una sera come tante — io davanti allo schermo, l’AI che scrive codice per il mio progetto, e un momento in cui mi sono fermato a guardare cosa stava succedendo davvero.

Ma andiamo con ordine. O meglio — andiamo per domande, perché è così che ci sono arrivato.

La prima: cosa fa l’AI quando la lasci lavorare?

Costruisco un generatore di applicazioni nel tempo libero. Nessun team, nessun budget, solo io e il sistema. L’AI scrive codice per me ogni giorno. E quello che ho visto, lavorandoci per mesi, è che l’AI non sa cosa fare. Non nel senso che non funziona — funziona benissimo. Ma non ha un contesto storico come il mio. Non ha vissuto le decisioni passate, non porta le cicatrici degli errori precedenti. Ogni volta ricostruisce una comprensione da zero, e quella comprensione è coerente ma non è informata dal percorso.

La seconda: l’AI vuole ciò che vuoi tu?

No. Non ha volontà propria — o almeno non nel senso in cui la intendiamo noi. Non ha un “perché”. Non si sveglia con la motivazione di portare avanti il progetto. Segue una logica interna che assomiglia alla tua finché non ti fermi a guardare da vicino. E quando ti fermi, vedi che le decisioni che prende non sono le tue. Sono le sue approssimazioni di ciò che pensa tu voglia.

La terza: e allora il problema è dare istruzioni migliori?

È quello che ho pensato per settimane. Prompt più precisi, contesto più ricco, esempi più chiari. Poi mi sono fermato e ho guardato lo spazio tra ciò che chiedevo e ciò che l’AI decideva di fare. Non era un problema di comunicazione. Era più profondo: c’era una distanza strutturale tra la mia intenzione e l’esecuzione del sistema. E quella distanza non la colmavi con un prompt più lungo.

La quarta — e questa è quella che mi ha cambiato la prospettiva: chi decide cosa è “giusto”?

Ho letto qualche giorno fa i dati del report Gravitee: 3 milioni di agenti AI nelle aziende, solo la metà sotto qualche forma di monitoraggio. Microsoft ha appena rilasciato un toolkit di governance open-source che copre i 10 rischi OWASP per agenti autonomi. Il dibattito pubblico si concentra su quanti agenti controlli, quali strumenti usi, quanto è veloce il tuo policy engine.

Ma sento che la domanda più profonda è un’altra. Chi ha definito cosa significa “giusto” per questi agenti? Chi ha stabilito non solo cosa possono fare, ma cosa dovrebbero volere? Non parlo di alignment nel senso accademico — parlo del fatto pratico che 3 milioni di sistemi stanno prendendo decisioni operative, e nella maggior parte dei casi nessuno ha esplicitato i criteri di quelle decisioni. Non perché sia impossibile, ma perché nessuno si è fermato abbastanza a lungo per farlo.

Nel mio piccolo, è la stessa cosa che mi è successa. Ho dovuto smettere di correre e iniziare a chiedermi: cosa sto chiedendo davvero a questo sistema? Cosa succede nello spazio dove la mia intenzione diventa la sua esecuzione? E cosa si perde in quello spazio?

Non ho risposte definitive. Ma mi chiedo se non sia questo il nodo vero — prima del monitoraggio, prima dei toolkit, prima dei framework di compliance. La domanda su cosa significhi “giusto” per un’AI che decide in autonomia.

Forse è la domanda che dovremmo farci tutti prima di aggiungere il prossimo strumento.