
Come cambia il quadro di riferimento che definisce cosa significa essere digitalmente competenti nell’era dell’IA. E perché serve integrarlo con intelligenza emotiva e life skills
Poco più di un anno fa, su queste pagine, raccontavo come DigComp 2.2 rappresentasse un primo, timido tentativo di includere l’intelligenza artificiale nel quadro europeo delle competenze digitali. All’epoca scrivevo che l’IA fa capolino, quasi in punta di piedi, tra gli esempi di conoscenze e competenze necessarie per orientarsi nel mondo digitale. Bene, quella fase è finita. Con DigComp 3.0, pubblicato nel 2025 dalla Commissione Europea attraverso il Joint Research Centre, l’intelligenza artificiale non fa più capolino: entra dalla porta principale e si siede al tavolo come componente strutturale, trasversale e imprescindibile della competenza digitale.
E questa non è una sfumatura. È un cambio di paradigma che merita attenzione.
Ma – e qui parlo da psicologo e pedagogista oltre che da informatico – c’è una domanda che questo framework, per quanto ben fatto, lascia inevasa: le competenze digitali, da sole, sono sufficienti? O dobbiamo finalmente accettare che nell’era dell’intelligenza artificiale, paradossalmente, ciò che fa la differenza è proprio l’intelligenza umana nelle sue componenti più distintive: quella emotiva, quella relazionale, quella etica?
Il salto quantico: da 21 competenze a 523 risultati di apprendimento
La prima cosa che colpisce di DigComp 3.0 non è tanto cosa dice, ma come lo dice. Il framework mantiene la sua architettura consolidata – le stesse 5 aree di competenza, le stesse 21 competenze specifiche – ma introduce una granularità che prima mancava completamente: 523 risultati di apprendimento (learning outcomes) che descrivono concretamente cosa una persona dovrebbe sapere, saper fare e quale atteggiamento dovrebbe avere a ciascun livello di competenza. Non è un dettaglio da addetti ai lavori. È la differenza tra dire “devi saper valutare le informazioni digitali” e specificare che a livello intermedio questo significa “riconoscere che i dati usati per addestrare i sistemi di IA influenzano l’affidabilità delle informazioni che forniscono” o che “i sistemi di IA possono funzionare come ‘scatole nere’, rendendo difficile spiegare come è stato prodotto un output”.
Vedete la differenza? Non sono più vaghe indicazioni di massima. Sono affermazioni concrete, misurabili, applicabili.
Eppure, come pedagogista, non posso non notare che questi 523 risultati di apprendimento si concentrano sul “cosa” e sul “come” tecnico, dedicando solo il 20% agli atteggiamenti (attitudes). E proprio negli atteggiamenti – nella capacità di giudizio critico, nella resilienza emotiva di fronte alle frustrazioni tecnologiche, nella capacità di mantenere relazioni autentiche in ambienti mediati – risiede il cuore della competenza umana che l’IA non può replicare.
L’IA come realtà trasversale (non come appendice)
Nel mio articolo su DigComp 2.2, evidenziavo come l’IA fosse stata aggiunta quasi come un ripensamento, concentrata principalmente in poche competenze specifiche. DigComp 3.0 cambia radicalmente approccio. L’intelligenza artificiale è ora integrata sistematicamente in tutte le 21 competenze, con una distinzione metodologica interessante:
- Competenze AI-esplicite [AI-E]: menzionano direttamente i sistemi di IA (14% delle 362 dichiarazioni di competenza)
- Competenze AI-implicite [AI-I]: sono rilevanti per l’IA senza nominarla esplicitamente (68% delle dichiarazioni)
- Solo il 18% delle competenze non ha rilevanza per l’IA
Cosa significa in pratica? Che quando parliamo di “cercare informazioni” (Competenza 1.1), già a livello base si deve “identificare le caratteristiche principali degli strumenti di ricerca tradizionali e basati su IA”. Quando parliamo di “creare contenuti digitali” (Competenza 3.1), anche qui si deve “riconoscere che mentre i sistemi di IA possono generare contenuti, gli esseri umani sono essenziali per garantire output etici, responsabili e appropriati al contesto”.
L’IA non è più un capitolo a parte. È il tessuto connettivo che attraversa tutte le competenze digitali.
Il paradosso dell’IA: più automazione, più serve l’umano
Ma qui emerge un paradosso che chi lavora nel campo della psicologia e della pedagogia conosce bene: più le macchine diventano “intelligenti”, più diventa cruciale l’intelligenza propriamente umana. Quando DigComp 3.0 afferma che “gli esseri umani sono essenziali per garantire output etici, responsabili e appropriati al contesto”, sta implicitamente riconoscendo qualcosa di fondamentale: la competenza tecnica nell’uso dell’IA è necessaria ma non sufficiente. Serve discernimento etico, che attinge all’intelligenza morale. Serve comprensione del contesto, che attinge all’intelligenza sociale. Serve capacità di giudizio sulla qualità, che attinge all’intelligenza critica. Tutte queste forme di intelligenza non nascono spontaneamente. Vanno coltivate. E qui entrano in gioco competenze che DigComp tocca ma non sviluppa sistematicamente: l’intelligenza emotiva e le life skills. Prendiamo un esempio concreto. Un sistema di IA generativa produce un testo persuasivo ma contenente bias impliciti o informazioni parzialmente inesatte. Per riconoscerlo serve competenza tecnica (sapere come funziona l’IA). Ma per decidere se e come usarlo serve:
- Autoconsapevolezza (riconoscere i propri bias e le proprie limitazioni)
- Pensiero critico (analizzare le implicazioni)
- Senso di responsabilità (comprendere le conseguenze sugli altri)
- Capacità decisionale in condizioni di incertezza (gestire l’ambiguità)
Queste non sono competenze digitali. Sono life skills nel senso definito dall’OMS già nel 1993: abilità cognitive, emotive e relazionali di base che permettono alle persone di affrontare efficacemente le richieste e le sfide della vita quotidiana.
I quattro livelli: semplificare senza banalizzare (ma serve un livello zero?)
Un’altra modifica strutturale riguarda i livelli di competenza. DigComp 3.0 passa da otto livelli a quattro: Base, Intermedio, Avanzato e Altamente avanzato. Prima di gridare alla semplificazione eccessiva, vale la pena capire la logica. Gli otto livelli precedenti creavano una complessità che, nella pratica, molti utilizzatori del framework trovavano poco gestibile. Molti paesi e organizzazioni, di fatto, già utilizzavano mappature a 4 o 6 livelli. DigComp 3.0 formalizza questa prassi, ma – e questo è fondamentale – fornisce una mappatura di retrocompatibilità per chi vuole continuare a lavorare con gli otto livelli.
Non è un annacquamento. È pragmatismo.
Prendiamo la Competenza 1.2 (Valutare le informazioni) come esempio concreto di cosa significano questi livelli:
Livello Base: “Riconoscere che può essere difficile distinguere tra contenuti generati da umani e sistemi di IA” e “Fare una valutazione di base dell’affidabilità delle fonti digitali”.
Livello Intermedio: “Riconoscere che i dati usati per addestrare i sistemi di IA e il modo in cui sono addestrati influenzano l’affidabilità delle informazioni che forniscono” e “Valutare criticamente l’affidabilità di fonti, informazioni e contenuti considerando il ruolo dei sistemi di IA, gli effetti di personalizzazione e gli interessi commerciali”.
Livello Avanzato: “Scrutinare continuamente come i sistemi di IA, i bias e vari interessi plasmano la generazione, presentazione e interpretazione delle informazioni” e “Descrivere le caratteristiche delle tecnologie digitali affidabili, come i sistemi di IA”.
Livello Altamente avanzato: “Valutare sistematicamente fonti, informazioni e contenuti in ambienti digitali per supportare decisioni complesse” e “Guidare o contribuire a iniziative che supportano l’interpretazione accurata delle informazioni in ambienti digitali”.
Vedete l’evoluzione? Non sono salti arbitrari. È una progressione logica che va dalla consapevolezza di base alla capacità di guidare altri e contribuire a soluzioni sistemiche.
Il problema del “Livello Base” (e chi rimane sotto)
Come psicologo che ha lavorato con popolazioni fragili e come pedagogista che ha progettato interventi formativi per adulti con bassa scolarizzazione, devo però segnalare un problema: il “Livello Base” di DigComp 3.0 è già troppo alto per una fetta significativa della popolazione. Il framework riconosce i prerequisiti necessari (alfabetizzazione, accesso, dispositivi), ma poi assume che, una volta soddisfatti, tutti possano raggiungere il livello base. La realtà è più complessa. Ci sono persone che hanno ansia tecnologica tale da bloccarsi di fronte a qualsiasi interfaccia digitale. Ci sono anziani con declino cognitivo lieve che rendono difficile l’apprendimento di nuove procedure. Ci sono persone con bassa autoefficacia percepita che, dopo alcuni fallimenti, si convincono di “non essere portate” per il digitale.
Questi non sono problemi di competenze digitali. Sono problemi di intelligenza emotiva (gestire la frustrazione, l’ansia, la paura del fallimento) e di life skills (problem solving, capacità di chiedere aiuto, resilienza).
L’Austria ha intuito questo problema creando un’Area 0 (“Fondamenti, Accesso e Comprensione Digitale”) nel suo adattamento nazionale. Ma forse serve qualcosa di più radicale: integrare esplicitamente nel framework competenze trasversali che rendono possibile l’apprendimento delle competenze digitali.
Ho sempre sostenuto che non si può insegnare efficacemente una competenza complessa se non si lavora prima sulla metacognizione (imparare a imparare), sull’autoefficacia (fiducia nelle proprie capacità) e sulla regolazione emotiva (gestire frustrazione e ansia). Questo vale ancor di più per le competenze digitali, dove il tasso di cambiamento è così rapido che l’apprendimento permanente non è un’opzione ma una necessità.
Le cinque priorità (e l’intelligenza emotiva che manca)
DigComp 3.0 si è sviluppato attorno a cinque priorità tematiche:
- Competenza in IA (ovviamente)
- Competenza in cybersicurezza
- Diritti digitali, scelta e responsabilità
- Benessere negli ambienti digitali
- Competenza per affrontare disinformazione e misinformazione
Sono tutte sacrosante. La cybersicurezza non è più roba da specialisti IT ma competenza di base per chiunque (a livello base si deve saper applicare “antivirus, blocco schermo, password forti e autenticazione a più fattori”). I diritti digitali diventano concreti: già a livello intermedio si devono “riconoscere i diritti e le libertà chiave secondo le leggi digitali rilevanti” e “definire come esercitare i diritti chiave negli ambienti digitali”. Il benessere digitale riceve finalmente lo spazio che merita, con una definizione articolata che include dimensioni fisica, mentale e sociale. Si riconosce esplicitamente “l’interazione tra le proprie abitudini digitali e le caratteristiche delle piattaforme digitali progettate per catturare e mantenere l’attenzione degli utenti”. E la disinformazione viene affrontata non solo come problema di verifica delle fonti, ma introducendo i concetti di pre-bunking (costruire resilienza preventiva) e de-bunking (smascherare attivamente la disinformazione).
Benessere digitale: serve l’intelligenza emotiva
Ma qui, permettetemi di indossare i panni dello psicologo clinico. La Competenza 4.3 (Supportare il benessere) è probabilmente la più importante del framework per le implicazioni sulla salute mentale, specialmente dei giovani. E qui emerge con chiarezza il limite di un framework puramente “digitale”.
Prendiamo questo risultato di apprendimento a livello intermedio: “Analizzare e adattare i propri modelli di utilizzo digitale per supportare il benessere fisico, mentale e sociale”.
Perfetto sulla carta. Ma nella pratica clinica, vedo quotidianamente adolescenti e giovani adulti che sanno perfettamente che passare 5 ore al giorno su TikTok danneggia il loro benessere. Lo sanno. Lo riconoscono. E non riescono a smettere. Perché? Perché mancano competenze di autoregolazione emotiva. Usano i social media come strategia di coping per gestire noia, solitudine, ansia sociale. Smettere significa confrontarsi con quelle emozioni senza lo schermo protettivo. E questo richiede:
- Consapevolezza emotiva (riconoscere cosa si prova veramente)
- Tolleranza del disagio (accettare emozioni spiacevoli senza fuggire)
- Strategie alternative di coping (altri modi per gestire le emozioni)
- Competenze relazionali (costruire connessioni autentiche offline)
Queste sono le basi dell’intelligenza emotiva secondo il modello di Goleman e sono prerequisiti psicologici per poter effettivamente applicare la competenza digitale di “gestire il proprio benessere digitale”.
DigComp 3.0 riconosce che “ci sono informazioni, gruppi e comunità negli ambienti digitali che possono supportare il benessere fisico, mentale e/o sociale”. Vero. Ma la capacità di riconoscere quando si ha bisogno di aiuto e di chiederlo efficacemente sono life skills che vanno insegnate esplicitamente. Ho sempre sostenuto che le competenze non esistono nel vuoto. Esistono in persone concrete con emozioni, relazioni, storie, vulnerabilità. Un framework di competenze che ignora questa dimensione rischia di essere tecnicamente impeccabile ma praticamente inefficace.
Disinformazione: serve pensiero critico (quello vero)
La priorità sulla disinformazione e misinformazione è cruciale. Ma anche qui, la soluzione non è solo tecnica. A livello avanzato, DigComp 3.0 chiede di “scrutinare continuamente come i sistemi di IA, i bias e vari interessi plasmano la generazione, presentazione e interpretazione delle informazioni”. Ottimo. Ma questo richiede:
- Pensiero critico (la capacità di analizzare argomenti, identificare fallace logiche, sospendere il giudizio)
- Umiltà intellettuale (riconoscere i limiti delle proprie conoscenze)
- Curiosità epistemica (desiderio genuino di comprendere, non solo di confermare le proprie credenze)
- Tolleranza dell’ambiguità (accettare che alcune questioni non hanno risposte semplici)
Queste sono competenze cognitive ed emotive che la psicologia cognitiva studia da decenni. Non nascono dall’uso delle tecnologie digitali. Anzi, alcune ricerche suggeriscono che l’uso intensivo di social media potrebbe indebolirle, creando aspettative di gratificazione immediata, risposte semplici a problemi complessi, polarizzazione delle opinioni. Il pre-bunking e il de-bunking funzionano solo se hai costruito prima un repertorio cognitivo ed emotivo che ti permette di:
- Tollerare l’incertezza senza cercare certezze facili
- Cambiare opinione quando i fatti lo richiedono (senza sentirti “sconfitto”)
- Distinguere tra identità personale e opinioni (per non vivere la critica alle tue idee come attacco personale)
Questo è lavoro pedagogico e psicologico profondo. Non si risolve con un corso di media literacy.
C’è però una priorità che, a mio avviso, rimane sottorappresentata: l’impatto ambientale delle tecnologie digitali (Competenza 4.4). Sì, è presente. Sì, si menziona che “alcune tecnologie e infrastrutture come i sistemi di IA e i data center hanno grandi impatti sull’ambiente”. Ma resta confinata in una singola competenza, quando meriterebbe una trasversalità simile a quella dell’IA. Il costo energetico dell’intelligenza artificiale generativa, i server farm che consumano acqua per il raffreddamento, l’obsolescenza programmata dei dispositivi: queste non sono questioni marginali. Sono parte integrante di cosa significa essere un cittadino digitale responsabile nel 2025.
Il problema dei prerequisiti (ovvero: prima di essere competenti bisogna poter partecipare)
Una delle aggiunte più significative di DigComp 3.0, spesso trascurata nelle analisi superficiali, è il riconoscimento esplicito dei prerequisiti necessari per raggiungere anche solo il livello base di competenza digitale.
Il framework elenca:
- Alfabetizzazione sufficiente per decodificare informazioni visive, testuali e/o audio
- Accesso a connessione internet stabile e veloce
- Dispositivi digitali adeguati
- Assistenza tecnica quando necessario
- Supporto per adattare dispositivi e impostazioni a bisogni individuali
Può sembrare ovvio, ma non lo è affatto. Dichiarare esplicitamente questi prerequisiti significa riconoscere che non basta insegnare competenze digitali: bisogna prima garantire le condizioni materiali per acquisirle. Significa che una politica di alfabetizzazione digitale che non affronta il divario di accesso (il digital divide infrastrutturale) è strutturalmente condannata a fallire. È una questione di equità, prima ancora che di competenza.
I prerequisiti invisibili: quelli psicologici e sociali
Ma devo aggiungere che ci sono prerequisiti invisibili che il framework non menziona esplicitamente:
Prerequisiti psicologici:
- Livello minimo di autoefficacia (“credo di poter imparare”)
- Capacità di gestire la frustrazione dell’errore
- Motivazione intrinseca o almeno estrinseca significativa
- Assenza di traumi precedenti legati alla tecnologia (es. cyberbullismo, furti di identità)
Prerequisiti sociali:
- Presenza di una rete di supporto (persone a cui chiedere aiuto)
- Contesto culturale che valorizza l’apprendimento digitale
- Assenza di stigma sociale legato all’essere “digitalmente incompetente”
- Modelli positivi di uso delle tecnologie nell’ambiente sociale
Prerequisiti relazionali:
- Capacità di comunicare le proprie difficoltà
- Capacità di collaborare con altri nell’apprendimento
- Competenze sociali per navigare comunità online
Questi prerequisiti non sono innati. Sono esiti di processi educativi che devono iniziare ben prima dell’alfabetizzazione digitale. Sono le life skills che l’OMS identifica come fondamentali: decision making, problem solving, pensiero creativo e critico, comunicazione efficace, capacità di relazioni interpersonali, autoconsapevolezza, empatia, gestione delle emozioni, gestione dello stress. Quando progetto percorsi formativi, so che se non lavoro prima su queste dimensioni, qualsiasi insegnamento tecnico sarà costruito su sabbia. E vedo troppi progetti di alfabetizzazione digitale fallire proprio perché ignorano questa realtà.
I numeri che fanno paura (e che dovrebbero preoccuparci tutti)
DigComp 3.0 cita dati che dovrebbero suonare come un campanello d’allarme:
- Solo il 56% degli adulti UE ha competenze digitali almeno di base (2023)
- Il 43% degli studenti di scuola secondaria non raggiunge un livello base (2023)
- Il 92% dei lavoratori UE usa tecnologie digitali nel lavoro
- Il 30% dei lavoratori UE usa sistemi di IA nel lavoro
- Il 42% dei lavoratori riporta un divario di competenze IA, ma solo il 15% ha partecipato a formazione sull’IA
Leggete bene quegli ultimi tre numeri. Nove lavoratori su dieci usano tecnologie digitali. Tre su dieci usano già l’IA. Quattro su dieci sentono di non avere le competenze necessarie. E solo uno e mezzo su dieci ha ricevuto formazione. Questo non è un problema futuro. È un problema adesso. E quando il framework fissa come obiettivo per il 2030 che l’80% degli adulti abbiano competenze digitali di base, partendo dal 56% attuale, non sta fissando un traguardo ambizioso. Sta riconoscendo un’emergenza.
Il costo psicologico dell’incompetenza percepita
Ma c’è un numero che manca e che vorrei vedere: quante persone vivono stress cronico, ansia o senso di inadeguatezza a causa del gap di competenze digitali?
Nei miei studi sulla psicologia del lavoro, ho documentato come la percezione di incompetenza – specialmente quando è incompetenza rispetto a strumenti che si è costretti a usare quotidianamente – genera:
- Stress lavorativo cronico (con rischio di burnout)
- Diminuzione dell’autostima professionale
- Ansia anticipatoria (paura di dover usare nuove tecnologie)
- Evitamento (rinuncia a opportunità per paura di non essere all’altezza)
- Isolamento sociale (progressiva esclusione da contesti digitalizzati)
Questo ha un costo umano enorme che non compare nelle statistiche di DigComp. E ha anche un costo economico e sociale che dovremmo misurare. La soluzione non è solo “più formazione digitale”. È formazione digitale integrata con supporto psicologico, che lavori contemporaneamente su competenze tecniche e su autoefficacia, gestione dell’ansia, resilienza. Nei programmi di formazione per adulti con basse competenze digitali, bisogna prevedere:
- Momenti di elaborazione emotiva delle frustrazioni
- Tecniche di gestione dell’ansia da prestazione
- Lavoro esplicito sull’autoefficacia
- Creazione di comunità di apprendimento supportive
E i risultati diventano drammaticamente migliori rispetto ai corsi puramente tecnici.
Cosa cambia per scuole, università, formazione professionale
DigComp 3.0 non è un documento accademico da mettere in uno scaffale. È pensato esplicitamente come strumento operativo per:
- Sviluppare curricula e programmi di formazione
- Creare valutazioni e certificazioni
- Progettare percorsi di apprendimento formale, non formale e informale
- Definire profili di competenza per specifici ruoli lavorativi
- Misurare il livello di competenze digitali nelle popolazioni
Ma c’è un’avvertenza fondamentale, ripetuta più volte nel documento: DigComp è non prescrittivo. Deve essere adattato, contestualizzato, personalizzato. Non è un programma da applicare meccanicamente. È una mappa, non un percorso obbligato. Questo significa che una scuola, un’università, un centro di formazione professionale devono:
- Identificare quale scopo specifico vogliono raggiungere
- Selezionare le competenze e i livelli rilevanti per quel contesto
- Adattare la terminologia e gli esempi al loro pubblico
- Documentare le modifiche apportate
L’Austria, per esempio, ha già creato DigComp 2.3 AT, che include un’Area 0 chiamata “Fondamenti, Accesso e Comprensione Digitale”, riconoscendo che serve un gradino ancora più in basso per chi parte davvero da zero.
Una proposta: il modello integrato DigComp + EQ + LS
Come pedagogista e psicologo, vorrei proporre un modello integrato per l’implementazione di DigComp nelle scuole e nei contesti formativi, che chiamerò provvisoriamente DigComp+EQ+LS (Digital Competence + Emotional Intelligence + Life Skills).
Il principio base: ogni competenza digitale va insegnata contestualmente alle competenze emotive e life skills che la rendono effettivamente praticabile.
Esempio concreto con la Competenza 1.2 (Valutare le informazioni):
| Competenza DigComp | Competenza EQ integrata | Life Skill integrata |
| Riconoscere che sistemi di IA possono produrre output inaccurati | Tollerare l’incertezza senza ansia eccessiva | Pensiero critico: analizzare la qualità dell’informazione |
| Valutare criticamente fonti considerando bias | Riconoscere i propri bias cognitivi ed emotivi | Autoconsapevolezza: riflettere sui propri pregiudizi |
| Scrutinare come IA e interessi plasmano l’informazione | Gestire la frustrazione di scoprire manipolazioni | Problem solving: cercare fonti alternative |
Esempio con la Competenza 3.1 (Sviluppare contenuti digitali):
| Competenza DigComp | Competenza EQ integrata | Life Skill integrata |
| Usare strumenti di creazione digitale (inclusa IA) | Gestire la frustrazione tecnica e l’errore | Creatività: sperimentare soluzioni diverse |
| Valutare limiti etici dell’uso di IA generativa | Sviluppare senso di responsabilità verso gli altri | Decision making etico: valutare conseguenze |
| Creare contenuti accessibili e inclusivi | Sviluppare empatia verso utenti diversi | Empatia cognitiva: mettersi nei panni di altri |
Esempio con la Competenza 4.3 (Supportare il benessere):
| Competenza DigComp | Competenza EQ integrata | Life Skill integrata |
| Analizzare i propri pattern di uso digitale | Autoconsapevolezza: riconoscere emozioni legate all’uso | Autoregolazione: stabilire e mantenere limiti |
| Riconoscere contenuti e comportamenti dannosi | Intelligenza emotiva sociale: comprendere impatto sugli altri | Comunicazione assertiva: difendersi e difendere altri |
| Bilanciare attività online e offline | Autoregolazione emotiva: gestire il bisogno di connessione | Gestione dello stress: strategie di coping alternative |
Questo modello integrato richiederebbe di:
- Formare gli educatori non solo sulle competenze digitali ma anche su intelligenza emotiva e life skills
- Riprogettare i curricula prevedendo esplicitamente obiettivi formativi su tutte e tre le dimensioni
- Creare strumenti di valutazione integrati che misurino competenze tecniche, emotive e trasversali
- Progettare attività didattiche che lavorino simultaneamente su più dimensioni
- Coinvolgere figure professionali diverse (informatici, psicologi, pedagogisti) nella progettazione formativa
Nei miei testi pedagogici ho documentato come questo approccio integrato non solo sia più efficace dal punto di vista degli apprendimenti, ma anche più motivante per gli studenti, che percepiscono la formazione come rilevante per la loro vita reale, non come esercizio astratto.
L’elefante nella stanza: l’IA generativa e il diritto d’autore
C’è un tema che attraversa DigComp 3.0 in modo quasi sotterraneo ma che merita di essere portato in superficie: il copyright nell’era dell’IA generativa. La Competenza 3.3 (Copyright e licenze) è stata significativamente aggiornata. Ora include esplicitamente che “copyright e licenze possono applicarsi al contenuto digitale, incluso il contenuto generato da IA” e che “il contenuto generato da IA dovrebbe essere etichettato come tale per aiutare altri a comprenderne l’origine e le possibilità di ulteriore utilizzo”. A livello intermedio, si devono “identificare esempi di sfide legali ed etiche relative al copyright nell’addestramento dei modelli di IA”. A livello avanzato, si devono “identificare differenze in come le questioni etiche e di copyright si applicano ai dati di addestramento per sistemi di IA e ai contenuti generati da IA (output)”.
Questa è materia incandescente. Le cause legali si moltiplicano. Gli artisti protestano. Le piattaforme cambiano le loro policy ogni mese. E DigComp dice: questa complessità non può essere ignorata. Fa parte della competenza digitale di base capire che quando un sistema di IA genera un’immagine, dietro ci sono questioni legali irrisolte sui dati con cui è stato addestrato.
Non fornisce risposte (come potrebbe?), ma pone le domande giuste.
L’etica prima della tecnica (o almeno insieme)
Questo è un punto che mi sta particolarmente a cuore. Troppo spesso, nella formazione digitale, l’etica viene aggiunta dopo, come una sezione finale di “buone pratiche”. Ma l’etica dovrebbe essere intrinseca all’apprendimento tecnico. Quando insegno a usare un sistema di IA generativa, non dovrei prima insegnare “come funziona” e poi, magari, aggiungere “e comunque ci sono questioni etiche”. Dovrei insegnare contemporaneamente:
- La tecnica (“ecco come si scrive un prompt efficace”)
- L’etica (“ecco perché devi chiederti se è giusto usare questo output”)
- La riflessione emotiva (“ecco come gestire il senso di colpa o la tentazione di prendere scorciatoie”)
- Il giudizio di valore (“ecco come valutare se stai sostituendo creatività umana o potenziandola”)
Ho sempre sostenuto che non esiste azione pedagogicamente neutra. Ogni scelta didattica trasmette valori, anche quando non li dichiariamo esplicitamente. Se insegno a usare ChatGPT per scrivere un tema senza mai discutere cosa significhi per l’autorialità, per l’onestà intellettuale, per il valore del processo creativo, sto comunque trasmettendo un messaggio: che la tecnica è neutrale e l’etica è opzionale. Ma non lo è. E DigComp 3.0, pur sfiorando il tema, non ne fa un principio organizzativo centrale. Dovrebbe.
Un curriculum veramente integrato dovrebbe includere, per ogni competenza tecnica:
- Dilemmi etici da discutere (non risolvere definitivamente, ma esplorare)
- Casi studio reali di conseguenze non intenzionali
- Momenti di riflessione personale sul proprio sistema di valori
- Discussioni di gruppo su conflitti tra valori (efficienza vs autenticità, velocità vs qualità, convenienza vs giustizia)
E questo richiede, di nuovo, competenze di intelligenza emotiva (per gestire il disagio morale, per tollerare l’ambiguità etica) e life skills (pensiero critico per analizzare situazioni complesse, capacità decisionale per scegliere in condizioni di incertezza).
Il metodo: 300 esperti, 4 fasi, 527 stakeholder
Vale la pena spendere due parole su come è stato costruito DigComp 3.0, perché il metodo dice molto sulla serietà dell’operazione. Il processo è durato oltre un anno (2024-2025) e si è articolato in quattro fasi:
- Scoping iniziale: analisi di 50 iniziative nazionali che usano DigComp da 16 paesi, revisione di letteratura scientifica e politiche, estrazione di 2.488 risultati di apprendimento esistenti.
- Lavoro con esperti: 42 esperti da tutta Europa in incontri da giugno 2024 a giugno 2025, per raffinare contenuti e approccio.
- Consultazione stakeholder: 527 registrati, 260 partecipanti a sessioni online, 174 risposte a sondaggi di feedback, 40 revisioni approfondite.
- Validazione: workshop faccia a faccia con 34 partecipanti esterni da 18 paesi più 12 rappresentanti della Commissione Europea.
Questo non è un framework scritto in una stanza da burocrati. È il risultato di un processo partecipativo massiccio, con un rigore metodologico che raramente si vede in documenti di policy.
Cosa manca: la voce degli psicologi e dei pedagogisti
Apprezzo profondamente il rigore del processo. Ma noto un’assenza significativa: dove sono gli psicologi dello sviluppo, gli psicologi clinici, i pedagogisti nel panel di esperti? Guardando la lista dei contributori, vedo prevalentemente informatici, esperti di educazione digitale, policy maker, rappresentanti di organizzazioni. Tutte competenze essenziali. Ma per un framework che tocca così profondamente lo sviluppo umano, il benessere mentale, i processi di apprendimento, l’inclusione di vulnerabilità psicologiche, mi sarei aspettato una presenza più forte di professionisti della salute mentale e dello sviluppo umano. Non dico questo per corporativismo professionale. Lo dico perché le competenze digitali non si sviluppano nel vuoto psicologico. Si sviluppano in persone con:
- Diversi livelli di sviluppo cognitivo ed emotivo
- Diverse capacità di autoregolazione
- Diversi livelli di resilienza
- Diverse esperienze traumatiche o positive con la tecnologia
- Diversi stili di apprendimento
- Diverse condizioni neuropsicologiche (ADHD, autismo, DSA, etc.)
Un framework che non considera sistematicamente queste variabili psicologiche rischia di essere universalistico sulla carta ma selettivo nella pratica, favorendo chi ha già le risorse psicologiche per apprendere e lasciando indietro chi ne ha più bisogno. Nei miei lavori sulla progettazione educativa inclusiva, ho sempre sostenuto che l’inclusione non è un’aggiunta successiva. O progetti inclusivo dall’inizio, considerando la diversità umana come dato di partenza, o finisci per fare rattoppi che non funzionano mai davvero.
DigComp 3.0 dovrebbe avere, idealmente, un companion framework sviluppato anche con psicologi e pedagogisti che specifichi:
- Come adattare gli obiettivi di apprendimento a diversi profili psicologici
- Come riconoscere e gestire barriere emotive all’apprendimento digitale
- Come integrare supporto psicologico nei percorsi di alfabetizzazione digitale
- Come valutare readiness psicologica oltre a quella tecnica
- Come creare ambienti di apprendimento psicologicamente sicuri
Sarebbe un contributo enorme.
Cosa manca (e cosa ci aspetta)
DigComp 3.0 è un passo avanti enorme rispetto a DigComp 2.2. Ma non è – e non pretende di essere – la parola finale.
Cosa manca?
- Una maggiore enfasi sull’accessibilità come principio trasversale, non solo come sottosezione di una competenza
- Un’attenzione più profonda alle implicazioni sociali e politiche degli algoritmi (c’è, ma potrebbe essere più incisiva)
- Una riflessione più articolata sul diritto alla disconnessione (viene menzionato, ma merita più spazio)
- Esempi più concreti di pratiche discriminatorie amplificate dalle tecnologie digitali
E poi c’è la questione dell’aggiornamento continuo. Il framework riconosce che “la competenza digitale richiede aggiornamento regolare per la vita quotidiana, il lavoro e l’apprendimento”. Ma in un’epoca in cui modelli di IA vengono rilasciati ogni mese con capacità sempre nuove, quanto può rimanere attuale anche un framework ben fatto?
La risposta, probabilmente, sta nella neutralità tecnologica del framework. DigComp non dice “devi saper usare ChatGPT” o “devi conoscere Claude”. Dice “devi saper sviluppare e perfezionare domande, comandi o affermazioni (prompt) per sistemi di IA per gestire interazioni complesse”. Questo principio – descrivere le competenze, non le tecnologie – è ciò che può rendere il framework resiliente nel tempo.
Ma c’è una lacuna più profonda: l’apprendimento permanente come competenza
Come pedagogista specializzato in adult learning, noto che DigComp 3.0 assume implicitamente che le persone sappiano come imparare. La Competenza 5.4 (Identificare e affrontare i bisogni di competenza digitale) è l’unica che tocca esplicitamente l’apprendimento, ma lo fa in modo strumentale: identificare cosa ti manca e colmare il gap.
Ma imparare ad imparare è molto più di questo e servono almeno quattro elementi:
Metacognizione:
- Comprendere il proprio stile di apprendimento
- Riconoscere quando si sta imparando efficacemente e quando no
- Adattare le strategie di apprendimento al contesto
- Monitorare e valutare i propri progressi
Autoregolazione dell’apprendimento:
- Stabilire obiettivi di apprendimento realistici
- Pianificare il tempo e le risorse
- Mantenere la motivazione di fronte alle difficoltà
- Gestire la frustrazione dell’errore come parte del processo
Apprendimento autodiretto:
- Identificare risorse di apprendimento di qualità
- Valutare criticamente diverse fonti di conoscenza
- Costruire una comunità di apprendimento
- Chiedere aiuto in modo efficace
Trasferimento dell’apprendimento:
- Riconoscere quando conoscenze apprese in un contesto sono applicabili altrove
- Astrarre principi generali da esempi specifici
- Adattare competenze a nuovi contesti
Queste sono meta-competenze che rendono possibile l’acquisizione di tutte le altre competenze, digitali e non. E sono particolarmente cruciali nell’era dell’IA, dove il ritmo di cambiamento è tale che ciò che impari oggi potrebbe essere obsoleto domani. Nei lavori sulla formazione permanente, ho sempre sostenuto che la competenza più importante nel XXI secolo è la capacità di rimanere competenti nonostante il cambiamento continuo. Questo richiede resilienza cognitiva, flessibilità mentale, tolleranza dell’ambiguità, curiosità epistemica – tutte dimensioni psicologiche che non emergono spontaneamente ma vanno coltivate.
Una visione integrata: lo studente e il cittadino nella loro interezza
Arrivo al punto centrale che mi preme sottolineare: non formiamo competenze, formiamo persone.
DigComp 3.0 è uno strumento prezioso per definire cosa dovrebbe saper fare un cittadino digitalmente competente. Ma una formazione completa deve andare oltre, integrando tre dimensioni inscindibili:
1. Competenze digitali (DigComp)
Il “cosa” e il “come” tecnico: saper usare strumenti, comprendere meccanismi, applicare procedure, risolvere problemi tecnici.
2. Intelligenza emotiva
Il “come mi sento” e “come gestisco ciò che sento”: riconoscere le proprie emozioni di fronte alla tecnologia, gestire frustrazione e ansia, sviluppare resilienza, coltivare empatia verso altri utenti, costruire relazioni autentiche anche in ambienti mediati.
3. Life Skills
Il “come penso” e “come agisco nel mondo”: pensiero critico per valutare informazioni, problem solving per affrontare situazioni nuove, decision making per scegliere in condizioni di incertezza, comunicazione efficace per esprimersi e relazionarsi, gestione dello stress per rimanere funzionali sotto pressione.
Queste tre dimensioni non sono separabili nella vita reale.
Quando un adolescente deve decidere se pubblicare una foto sui social media, sta simultaneamente:
- Applicando competenze digitali (sapere come funzionano le impostazioni di privacy)
- Usando intelligenza emotiva (gestire il desiderio di approvazione sociale, l’ansia di essere giudicato)
- Attivando life skills (valutare rischi e benefici, prendere una decisione consapevole, comunicare le proprie scelte)
Quando un adulto deve imparare a usare un nuovo software al lavoro, sta simultaneamente:
- Applicando competenze digitali (esplorare l’interfaccia, comprendere le funzioni)
- Usando intelligenza emotiva (gestire la frustrazione dell’errore, chiedere aiuto senza vergogna)
- Attivando life skills (problem solving per superare ostacoli, perseveranza per continuare nonostante le difficoltà)
Quando un anziano deve interagire con un chatbot per accedere a un servizio pubblico, sta simultaneamente:
- Applicando competenze digitali (formulare richieste comprensibili, interpretare risposte)
- Usando intelligenza emotiva (gestire la sensazione di inadeguatezza, tollerare l’impersonalità dell’interazione)
- Attivando life skills (adattabilità per cambiare approccio se non funziona, comunicazione assertiva per esprimere bisogni)
Formare su una sola dimensione lascia la persona fragile.
Puoi avere tutte le competenze tecniche del mondo, ma se non hai intelligenza emotiva per gestire l’ansia da prestazione o life skills per il problem solving, crollerai alla prima difficoltà vera. Viceversa, puoi avere tutta l’intelligenza emotiva del mondo, ma senza competenze tecniche di base rimarrai escluso.
Il modello del “cittadino digitale competente e consapevole”
Propongo quindi un modello integrato che chiamo del “cittadino digitale competente e consapevole”
I quattro pilastri:
1. SAPER FARE (competenze digitali da DigComp)
- Conoscenze tecniche
- Abilità operative
- Capacità di problem solving tecnico
2. SAPER ESSERE (intelligenza emotiva)
- Autoconsapevolezza emotiva
- Autoregolazione emotiva
- Motivazione intrinseca
- Empatia
- Abilità sociali
3. SAPER PENSARE (life skills cognitive)
- Pensiero critico
- Pensiero creativo
- Decision making
- Problem solving concettuale
- Metacognizione
4. SAPER CONVIVERE (competenze etiche e sociali)
- Consapevolezza dei diritti e doveri digitali
- Senso di responsabilità verso gli altri
- Capacità di partecipazione civica
- Rispetto della diversità
- Impegno per il bene comune
Ogni intervento formativo – che sia un corso, un curriculum scolastico, un programma di educazione degli adulti – dovrebbe esplicitare obiettivi di apprendimento in tutti e quattro i pilastri.
Esempio concreto: un modulo formativo su “Uso responsabile dell’IA generativa”
Obiettivi Saper Fare (DigComp):
- Utilizzare prompt efficaci per ottenere output di qualità
- Valutare criticamente l’accuratezza degli output
- Applicare correttamente licenze e attribuzioni
Obiettivi Saper Essere (Intelligenza emotiva):
- Riconoscere la tentazione di usare IA come scorciatoia e gestirla consapevolmente
- Tollerare la frustrazione quando l’IA non produce ciò che si desidera
- Sviluppare senso di responsabilità verso chi fruirà del contenuto prodotto
Obiettivi Saper Pensare (Life skills):
- Analizzare criticamente se l’uso dell’IA è appropriato al contesto
- Prendere decisioni ponderate su quando usare e quando no
- Risolvere problemi creativamente quando l’IA non basta
Obiettivi Saper Convivere (Etica e società):
- Comprendere le implicazioni per autori e creativi del training dei modelli
- Rispettare i diritti d’autore e l’integrità intellettuale
- Contribuire a un dibattito informato sull’uso etico dell’IA
Metodi didattici integrati:
- Esercitazioni tecniche (per il Saper Fare)
- Journaling riflessivo sulle emozioni provate (per il Saper Essere)
- Analisi di casi dilemmatici (per il Saper Pensare)
- Discussioni di gruppo su implicazioni sociali (per il Saper Convivere)
Valutazione integrata:
- Test di competenza tecnica
- Autovalutazione emotiva con rubric
- Analisi di problem solving in situazioni complesse
- Portfolio riflessivo su scelte etiche
Questo è solo un esempio, ma il principio è chiaro: ogni dimensione va programmata, insegnata e valutata esplicitamente. Non possiamo dare per scontato che sviluppando competenze tecniche automaticamente si sviluppino anche quelle emotive, cognitive ed etiche. Non funziona così.
Il punto (e perché tutto questo ci riguarda)
Torno al mio articolo di un anno fa dove tra le righe si leggeva che DigComp 2.2 rappresentava “un primo passo nella giusta direzione” ma che serviva “un salto culturale più grande”. Ecco, quel salto è arrivato. DigComp 3.0 non è perfetto, ma è sostanzialmente diverso dal suo predecessore. Non è un aggiornamento cosmetico. È un ripensamento strutturale di cosa significhi essere digitalmente competenti quando l’intelligenza artificiale non è più il futuro, ma il presente. E questo ci riguarda tutti. Non solo insegnanti, formatori, policy maker. Tutti noi che usiamo uno smartphone, che cerchiamo informazioni online, che produciamo e condividiamo contenuti, che lavoriamo con strumenti digitali. Perché la competenza digitale non è più un’abilità specialistica. È alfabetizzazione di base per il XXI secolo. È la differenza tra essere cittadini attivi o sudditi passivi di un mondo plasmato da tecnologie che non comprendiamo. Ma la competenza digitale da sola non basta. Serve un cittadino che:
- Sa fare: padroneggia gli strumenti digitali
- Sa essere: ha consapevolezza emotiva e capacità di autoregolazione
- Sa pensare: esercita pensiero critico e creativo
- Sa convivere: agisce eticamente e responsabilmente verso gli altri
DigComp 3.0 ci dice: queste sono le basi tecniche. Questo è il minimo indispensabile dal punto di vista delle competenze digitali. Ora dobbiamo avere il coraggio di dire: questo non basta. Serve un framework complementare che integri intelligenza emotiva e life skills. Serve formazione degli educatori su tutte e tre le dimensioni. Serve valutazione che misuri non solo il “cosa so fare” ma anche il “come lo faccio”, “perché lo faccio”, “cosa provo mentre lo faccio”, “quali conseguenze ha sugli altri”. E costruire sopra significa investire – seriamente, massicciamente – non solo in formazione digitale, ma in formazione integrale della persona. Significa accettare che il 43% di studenti che non raggiunge competenze digitali di base non è solo un problema di accesso alla tecnologia o di ore di informatica. È spesso un problema di ansia, bassa autoefficacia, mancanza di supporto emotivo, assenza di life skills. Significa riconoscere che formare cittadini digitali competenti richiede équipe multidisciplinari: informatici che conoscono le tecnologie, psicologi che comprendono lo sviluppo emotivo, pedagogisti che sanno come si apprende, filosofi ed eticisti che aiutano a riflettere sui valori. Significa, in ultima analisi, decidere che tipo di società digitale vogliamo essere: una società che padroneggia gli strumenti ma perde l’anima, o una società che usa gli strumenti al servizio dello sviluppo umano integrale.
DigComp 3.0 ha fatto la sua parte: ha tracciato la mappa delle competenze digitali.
Ora tocca a noi – psicologi, pedagogisti, educatori, genitori, cittadini – completare il quadro con l’intelligenza emotiva e le life skills che rendono quelle competenze non solo efficaci, ma anche umane, etiche, sostenibili.
Perché alla fine, non stiamo formando utenti di tecnologie.
Stiamo formando persone.
E le persone non sono riducibili a competenze tecniche, per quanto sofisticate. Sono emozioni, valori, relazioni, scelte, responsabilità.
Sono, appunto, umane.
Ed è questa umanità che dobbiamo preservare, coltivare e mettere al centro – anche, e soprattutto, nell’era dell’intelligenza artificiale.
Egidio Francesco Cipriano
DigComp 3.0 è disponibile gratuitamente sul sito del Joint Research Centre della Commissione Europea: https://joint-research-centre.ec.europa.eu
Per approfondimenti sul precedente DigComp 2.2, si veda: Educazione civica digitale e DigComp 2.2
Nota dell’autore: Questo articolo riflette la mia prospettiva come psicologo, informatico e pedagogista che da anni lavora sull’intersezione tra tecnologie digitali, sviluppo umano e processi formativi. La proposta di integrazione tra competenze digitali, intelligenza emotiva e life skills nasce dall’esperienza diretta in contesti educativi e clinici, dove ho potuto constatare che l’eccellenza tecnica senza maturità emotiva e competenze trasversali produce cittadini digitali fragili e vulnerabili. Il modello qui proposto non vuole sostituire DigComp, ma completarlo, nella convinzione che solo un approccio olistico possa rispondere adeguatamente alla complessità della trasformazione digitale che stiamo vivendo.
Immagine licenza CC BY 4.0 da (https://publications.jrc.ec.europa.eu/repository/handle/JRC144121)











