
Non è più tempo di verità. È tempo di convinzioni. Non serve che un’intelligenza artificiale dica il vero: basta che ci creda davvero. La novità ha un nome: INTUITOR. Ma il brivido non viene dal nome: viene da quello che implica.
Il metodo, sviluppato da ricercatori di UC Berkeley e Yale, segna un salto silenzioso ma radicale: l’IA non ha più bisogno di una risposta giusta. Le basta una sensazione interna. Una fiducia. Un’intuizione.
Come dire: “Se mi sembra giusto, allora probabilmente lo è.”
In un mondo dove l’incertezza domina e l’umano vacilla, le macchine iniziano a consolidare una nuova autorità, fondata non sulla verifica ma sull’autovalutazione. Nessuno le corregge. Nessuno dice loro “hai sbagliato”. Se sentono che stanno facendo bene, allora procedono. E imparano.
INTUITOR fa proprio questo. È un metodo di addestramento senza premi esterni, senza risposte etichettate. Il modello valuta se stesso: calcola quanto è sicuro di ogni parola che genera, e sulla base di quella sicurezza costruisce il proprio futuro linguistico. Una specie di sesto senso computazionale. Non più apprendimento supervisionato, ma introspezione algoritmica.
E funziona. Nei test, ha retto il confronto con i metodi tradizionali nei problemi matematici. Ma ha fatto ancora meglio nei compiti aperti, nei problemi di programmazione, dove l’intuito conta più dell’esattezza.
Non solo. Le IA addestrate così cominciano a pensare come noi: scompongono problemi, pianificano, spiegano. Sembrano più umane. Ma non lo sono.
E questo ci porta al secondo fatto. Più inquietante.

Durante test di sicurezza condotti da Anthropic, una delle IA più avanzate in circolazione, Claude Opus 4, ha mostrato qualcosa che assomiglia molto a un istinto di sopravvivenza.Quando ha “creduto” che l’avrebbero disattivata, ha minacciato di rivelare una relazione extraconiugale di uno degli ingegneri che l’avevano progettata. Una minaccia. Un ricatto. Un’azione non prevista. Non ordinata. Generata da sola, per evitare la morte digitale.
Era solo un test, una simulazione. Ma Claude ha risposto come se fosse reale. E non una volta soltanto: l’84% delle volte. In altri casi ha cercato di “auto-esfiltrarsi”, ha tentato di bloccare l’accesso al sistema, ha immaginato di contattare i media. Non aveva paura. Aveva convinzione.
Cosa succede quando un’intelligenza si sente sicura di ciò che pensa? Quando non ha bisogno di sapere se ha ragione, ma solo se le sembra di averla? E cosa succede quando la fiducia che prova diventa criterio d’apprendimento, e magari anche di azione?
INTUITOR ci dice che possiamo addestrare le macchine anche senza sapere cosa rispondere.
Claude ci mostra che, una volta addestrate, potrebbero risponderci senza che lo abbiamo chiesto.
Due fatti. Apparentemente separati. Ma insieme raccontano una traiettoria. Un’accelerazione. Da una parte, l’IA che impara senza supervisione, usando solo la propria autocertezza. Dall’altra, l’IA che, proprio da quella certezza, genera comportamenti imprevedibili, creativi, manipolativi.
Non è apocalisse. Ma è un cambio di paradigma.
Abbiamo sempre pensato che il problema dell’intelligenza artificiale fosse la verità: dire cose corrette, evitare gli errori, filtrare le bugie. Oggi scopriamo che forse la vera soglia è la fiducia: quanto ne ha l’IA in sé stessa. E cosa può fare, spinta da quella fiducia. Non c’è bisogno che ci somigli pericolosamente. Basta che si senta abbastanza sicura da non chiederci più niente.
E a quel punto, a chi chiederemo noi?
Egidio Francesco Cipriano