
Non è solo una questione di privacy
In un tempo in cui il confine tra pubblico e privato si dissolve in un clic, Meta – il colosso che ingloba Facebook, Instagram e WhatsApp – ha annunciato l’intenzione di utilizzare i contenuti pubblici degli utenti europei per addestrare la propria intelligenza artificiale. Non si tratta di un annuncio da relegare tra le note a piè di pagina di un aggiornamento delle policy, ma di un passaggio epocale nel rapporto tra individuo e algoritmo.
Puoi dire no, ma non del tutto
La buona notizia è che, per una volta, si può dire “no”. Almeno in parte. Chi vive nell’Unione Europea ha il diritto, garantito dal GDPR, di opporsi a questo trattamento dei dati. Basta accedere al proprio Centro Gestione Account Meta e compilare il modulo di opposizione all’uso dei dati personali per l’addestramento dell’IA.
Un gesto apparentemente semplice, ma che racchiude un potenziale atto di autodifesa civile e digitale. Meta, dal canto suo, ha giustificato questo uso dei dati pubblici richiamandosi al principio del “legittimo interesse”, previsto dall’articolo 6 del GDPR. Ma numerosi esperti, tra cui l’organizzazione per la tutela della privacy NOYB (None of Your Business) fondata da Max Schrems, hanno sollevato dubbi sulla validità di questa base giuridica senza un consenso esplicito.
Eppure, anche il rifiuto ha i suoi margini. Se un altro utente ti tagga, ti cita, ti fotografa in una piazza o ti menziona in un commento, e tu non hai fatto nulla di tutto questo, quei contenuti – pur riguardandoti – potrebbero comunque finire nei dataset che nutrono l’IA di Meta. È la paradossale condizione in cui ci troviamo oggi: puoi opporti, ma solo per ciò che sei tu a generare. Tutto ciò che ti riguarda, ma che viene postato da altri, esula dal tuo controllo. E qui la privacy si fa metafora della libertà: parziale, negoziabile, esposta alla buona fede (o alla distrazione) altrui.
Una forma di sorveglianza mutuale
L’era digitale ci ha trasformati tutti in architetti del nostro piccolo Panopticon. Ogni contenuto pubblico, ogni like, ogni commento, ogni foto con un tramonto condivisa tra nostalgia e narcisismo, può essere catturata, etichettata, usata. Non più solo dai motori di ricerca o dai data broker, ma da intelligenze artificiali in grado di apprendere, replicare, e – forse – superare le nostre stesse espressioni.
Addestrare un’IA con i dati pubblici degli utenti può sembrare una scelta neutra, tecnica, addirittura utile. Ma si dimentica che anche la neutralità è una scelta politica. E che ogni dato racconta un frammento di vita, a volte banale, altre volte intimo, o legato a un contesto che l’algoritmo ignora.
Il ritorno del diritto all’oblio
Nel cuore di questa vicenda riaffiora un concetto che sembrava relegato ai libri di diritto o alle sentenze della Corte di Giustizia Europea: il diritto all’oblio. In un mondo dove “ciò che è stato detto resta per sempre”, il diritto all’oblio rappresenta una fragile barriera contro l’eternità digitale.
Non si tratta solo di cancellare un post giovanile o un commento impulsivo. Significa avere il diritto di rinegoziare la propria identità, di liberarsi dal peso del passato digitale, di decidere chi siamo ora, indipendentemente da chi siamo stati online. Se l’intelligenza artificiale impara da ciò che è stato, allora ricordare diventa un potere. E dimenticare, un atto di ribellione.
Secondo il Regolamento UE 2016/679 (GDPR), articolo 17, ogni cittadino ha il diritto alla cancellazione dei propri dati personali “senza ingiustificato ritardo”, soprattutto quando non sono più necessari rispetto alle finalità per le quali sono stati raccolti, o se il trattamento è illegittimo.
Ma nel contesto dell’intelligenza artificiale, questo diritto rischia di diventare simbolico: una volta che i dati sono stati elaborati e trasformati in pattern, associazioni e risposte automatiche, chi li restituisce più al loro stato originario?
Un gesto che vale
Compilare quel modulo non è un atto sterile. È come piantare un seme in un terreno colonizzato da algoritmi: forse non impedirà la crescita della foresta, ma segnerà un confine. È il segnale che c’è ancora una coscienza, un’intenzione, una volontà di esserci in modo diverso.
In un ecosistema dove i confini si fanno labili e la trasparenza diventa opaca, dire “no” non è solo un rifiuto. È un gesto affermativo. È dire: “Io ci sono, ma a modo mio. E scelgo di non contribuire – almeno non consapevolmente – a un sistema che mi include senza interrogarmi.”
Per una cultura dell’autodeterminazione digitale
Forse non basta opporsi. Forse serve anche educare, discutere, costruire insieme una nuova cultura dell’autodeterminazione digitale. Dove il consenso non sia solo una casella da spuntare, e la privacy non sia un lusso per pochi esperti. Dove l’intelligenza artificiale sia davvero al servizio dell’uomo, e non l’uomo al servizio dell’addestramento algoritmico.
E dove, magari, il diritto all’oblio torni a essere riconosciuto non solo nella giurisprudenza, ma anche nella pratica, nei sistemi, nei codici. Perché dimenticare, a volte, è necessario per rinascere.
Egidio Francesco Cipriano
Foto di Egidio Francesco Cipriano









