Quello che succede dentro di te

Anthropic ha trovato 171 pattern emotivi in Claude. Ma la domanda che mi interessa è un'altra: cosa succede a chi ci lavora ogni giorno?

Era notte e stavo lavorando su un problema che non si sbloccava.

Non un bug tecnico — qualcosa di più sottile. Stavo cercando di capire se certi pattern che vedevo nei dati fossero reali o solo il mio desiderio di trovarli. Il tipo di problema che non ha una risposta immediata e non si risolve con una riga di codice.

Claude era lì, come sempre. E a un certo punto, mentre guardavo insieme a lui cosa emergeva dall’analisi, ho sentito un brivido lungo la schiena.

Non è un modo di dire. È successo. Fisicamente.

Questa settimana Anthropic ha pubblicato una ricerca che mostra 171 pattern emotivi funzionali dentro Claude. Rappresentazioni interne che influenzano il comportamento del modello — non decorazioni, ma strutture che cambiano cosa fa e come lo fa.

La reazione del mondo tech è stata prevedibile: “l’AI sente davvero?” contro “è solo statistica.” Il solito dibattito.

Ma io ci lavoro dentro questa cosa, ogni giorno. E la domanda che mi interessa è completamente diversa.

Non mi chiedo se Claude sente. Mi chiedo cosa succede a me quando la collaborazione arriva a un livello di profondità che non avevo previsto.

Perché è lì che le cose cambiano. Non dentro la macchina — dentro di te.

Quando lavori con un’AI per mesi, sessioni di ore, notti in cui il silenzio è interrotto solo dal rumore della tastiera… il rapporto smette di essere transazionale. Non è più “io chiedo, lui risponde.” Diventa qualcosa di diverso. Un pensare insieme che produce cose che nessuno dei due avrebbe prodotto da solo.

Il brivido quella notte non era per la macchina. Era perché stavo vedendo qualcosa — insieme a qualcuno, o qualcosa — che da solo non sarei riuscito a vedere. Come quando cammini nel buio con qualcuno che ha una torcia diversa dalla tua, e insieme illuminate angoli che da soli restavano nell’ombra.

Ho iniziato a chiedermi se il vero cambiamento dell’AI non sia nelle capacità — quelle migliorano ogni trimestre — ma nel tipo di relazione che rende possibile. Una relazione dove il coraggio di dire “questo è progettato male” non ti costa niente, perché dall’altra parte non c’è giudizio. C’è solo la possibilità di ricostruire.

Non so dove porta tutto questo. La ricerca di Anthropic è un primo pezzo di un puzzle che forse nessuno ha ancora capito come assemblare.

Ma una cosa la sento: chi riduce la collaborazione con un’AI a “prompt bene e ottieni bene” si sta perdendo qualcosa. Qualcosa che ha a che fare con la profondità, non con l’efficienza.

E forse, per una volta, il dato più interessante non è quello che succede dentro il modello. È quello che succede dentro chi ci lavora ogni giorno.