Normativa e Governance AI Scuola

Privacy e Dati degli Studenti con l'AI: Guida GDPR per le Scuole — 2026

Usare strumenti AI a scuola significa trattare dati personali di minori. Ecco gli obblighi GDPR, il ruolo del DPO e come scegliere strumenti AI conformi alla normativa.

AP
Antonio Pisante·CEO, Yellow Tech·
1

Il Quadro Normativo: GDPR e AI nelle Scuole

Le scuole italiane trattano ogni giorno dati personali di studenti minorenni: dalle valutazioni ai dati sanitari, dalle presenze ai comportamenti. Quando in questo trattamento entra l'intelligenza artificiale — sotto forma di piattaforme didattiche, chatbot, sistemi di valutazione automatica — si aggiungono complessità normative che il GDPR (Reg. UE 2016/679) regola in modo specifico.

Il GDPR si applica a qualsiasi trattamento di dati personali effettuato con strumenti automatizzati, inclusi i sistemi AI. Le scuole sono titolari del trattamento (data controller) e come tali sono responsabili di garantire che ogni strumento AI adottato rispetti i principi del regolamento: liceità, correttezza, trasparenza, limitazione della finalità, minimizzazione dei dati, esattezza, limitazione della conservazione, integrità e riservatezza.

In Italia, il Garante per la Protezione dei Dati Personali ha emesso diverse indicazioni specifiche per le scuole, ribadendo che l'adozione di strumenti tecnologici nella didattica non esonera gli istituti dagli obblighi di tutela della privacy degli studenti, con particolare attenzione ai minori di 14 anni.

2

Dati dei Minori: Regole Speciali e Consenso

Il trattamento di dati personali di minori richiede cautele aggiuntive rispetto agli adulti. Il GDPR prevede che per i servizi della società dell'informazione offerti direttamente ai minori, il consenso sia valido solo se fornito da chi esercita la responsabilità genitoriale, fino al compimento dei 14 anni (in Italia, ai sensi dell'art. 2-quinquies del Codice Privacy). Sopra i 14 anni, il minore può prestare il proprio consenso.

Questo principio si applica concretamente all'adozione di strumenti AI a scuola: se una piattaforma AI raccoglie dati personali degli studenti (nome, età, performance, comportamento online), la scuola deve acquisire il consenso dei genitori per gli studenti under 14. Questo non significa che ogni uso di ChatGPT in classe richieda un modulo firmato: dipende da quali dati vengono effettivamente trasmessi alla piattaforma e come vengono trattati.

Una distinzione importante è tra strumenti usati in modalità anonima o pseudonima (dove non vengono trasmessi dati identificativi degli studenti) e strumenti che richiedono la creazione di account personali o che raccolgono dati di utilizzo associati all'identità dello studente. Nel primo caso, gli obblighi di consenso si riducono significativamente; nel secondo, è necessario informare famiglie e studenti e acquisire il consenso appropriato.

3

Quando Serve la DPIA (Valutazione d'Impatto)

La Data Protection Impact Assessment (DPIA) è un processo di valutazione preventiva obbligatorio per i trattamenti ad alto rischio. Il GDPR (art. 35) richiede la DPIA quando il trattamento può comportare un rischio elevato per i diritti e le libertà delle persone. Nel contesto scolastico con AI, la DPIA è obbligatoria in almeno tre scenari tipici.

Primo: uso di sistemi di profilazione sistematica degli studenti — ad esempio, piattaforme di apprendimento adattivo che costruiscono profili dettagliati dello studente nel tempo, combinando dati di performance, tempo di risposta, pattern di errore. Secondo: trattamento su larga scala di categorie particolari di dati — ad esempio, sistemi AI che elaborano dati sulla salute mentale o sulle difficoltà di apprendimento degli studenti. Terzo: sorveglianza sistematica di aree accessibili al pubblico — come sistemi di riconoscimento facciale per il controllo degli accessi.

La DPIA non è un documento che si compila una volta e si archivia: è un processo iterativo che va aggiornato se cambiano le caratteristiche del trattamento. Il DPO dell'istituto (o quello dell'Ufficio Scolastico Regionale, per gli istituti che non ne hanno uno proprio) deve essere coinvolto nella redazione e nel monitoraggio della DPIA.

4

Il Ruolo del DPO nella Scuola

Il Data Protection Officer (DPO), o Responsabile della Protezione dei Dati (RPD), è una figura obbligatoria per le scuole pubbliche italiane ai sensi del GDPR. Molte scuole si avvalgono di un DPO in forma associata, condiviso tra più istituti o nominato a livello di Ufficio Scolastico Regionale. Indipendentemente dalla modalità, il DPO deve essere consultato ogni volta che la scuola introduce strumenti AI che trattano dati personali degli studenti.

Il DPO non ha il ruolo di vietare o approvare l'adozione di strumenti: il suo compito è fornire consulenza, verificare la conformità, formare il personale e fungere da punto di contatto con il Garante. Se il DPO esprime riserve su uno strumento AI specifico, la scuola deve tenerne conto e documentare come ha gestito le indicazioni ricevute.

Nella pratica, molti DPO scolastici non hanno competenze approfondite di AI, il che può rendere difficile la valutazione di strumenti innovativi. In questi casi, è utile che la scuola si doti di un referente interno con competenze tecniche (spesso il Referente per l'Innovazione Digitale o il Responsabile del Piano Digitale) che supporti il DPO nella valutazione tecnica degli strumenti.

5

Quali Strumenti AI Sono GDPR-Compliant: Cosa Verificare

Non esiste una lista ufficiale di strumenti AI 'approvati' per l'uso scolastico: la conformità GDPR dipende dalle specifiche modalità di utilizzo e dalle garanzie contrattuali offerte dal fornitore. Esistono però criteri chiari per valutare la conformità di uno strumento prima di adottarlo.

I criteri principali sono: server location (i dati degli studenti devono essere trattati in UE o in paesi con livello di protezione adeguato riconosciuto dalla Commissione Europea, oppure con garanzie contrattuali adeguate come le Standard Contractual Clauses); disponibilità di un DPA (Data Processing Agreement) — il contratto di trattamento dati richiesto dall'art. 28 GDPR; politica di retention dei dati (per quanto tempo vengono conservati i dati degli studenti); e uso dei dati per l'addestramento dei modelli (i dati degli studenti non devono essere usati per addestrare modelli AI senza consenso esplicito).

I grandi fornitori enterprise (Microsoft, Google, OpenAI per tier business) offrono versioni dei propri strumenti con DPA standard e con garanzie specifiche per il settore education. Queste versioni sono generalmente più adatte all'uso scolastico rispetto agli account gratuiti personali, che spesso non offrono garanzie GDPR equivalenti. ScuolaTech guida le scuole nella valutazione di questi strumenti nell'ambito dei percorsi formativi per dirigenti e docenti.

6

Informativa agli Studenti e alle Famiglie

Ogni volta che la scuola introduce strumenti AI che trattano dati personali degli studenti, deve aggiornare l'informativa privacy (art. 13 GDPR) e comunicarla a studenti e famiglie. L'informativa deve essere chiara, in linguaggio comprensibile, e deve specificare: quali dati vengono raccolti, per quale finalità, per quanto tempo vengono conservati, chi li tratta (inclusi i sub-responsabili, cioè i fornitori degli strumenti AI), e quali sono i diritti degli interessati.

Per gli strumenti AI, un elemento spesso trascurato è l'indicazione delle logiche sottostanti ai processi automatizzati. Se uno strumento AI prende decisioni che riguardano gli studenti — o anche solo li supporta significativamente — l'informativa deve contenere informazioni significative sulla logica del sistema e le possibili conseguenze. Questo requisito deriva dall'art. 22 GDPR sul diritto a non essere soggetti a decisioni automatizzate.

Molte scuole aggiornano l'informativa una volta all'anno, all'inizio del nuovo anno scolastico. Con la rapida evoluzione degli strumenti AI, questa cadenza potrebbe non essere sufficiente: è opportuno aggiornare l'informativa ogni volta che viene introdotto uno strumento significativamente nuovo, senza aspettare settembre.

7

Gestione dei Trasferimenti di Dati Extra-UE

Una delle questioni più complesse riguarda i trasferimenti di dati verso paesi extra-UE, rilevante per tutti gli strumenti AI di provider americani (OpenAI, Google, Microsoft, Meta). Il GDPR permette questi trasferimenti solo in presenza di garanzie adeguate: decisione di adeguatezza della Commissione Europea, Standard Contractual Clauses (SCC), o norme vincolanti d'impresa (BCR).

Dopo la sentenza Schrems II del 2020 e l'accordo EU-US Data Privacy Framework del 2023, la situazione è diventata più chiara per i provider americani aderenti al framework. Tuttavia, il framework è oggetto di contestazioni legali periodiche, e le scuole dovrebbero verificare la situazione aggiornata al momento dell'adozione di ogni strumento. I provider seri documentano il meccanismo di trasferimento utilizzato nella propria documentazione GDPR.

Per i dati particolarmente sensibili (dati sanitari degli studenti, dati su disabilità o difficoltà di apprendimento), il trasferimento extra-UE richiede ulteriori cautele. In questi casi, la scelta di strumenti AI con server localizzati in UE è fortemente preferibile, anche se può comportare un accesso a funzionalità ridotte rispetto alle versioni globali.

?

Domande frequenti

Le scuole devono chiedere il consenso dei genitori per usare strumenti AI in classe?

Dipende dallo strumento e dalle modalità di utilizzo. Se lo strumento AI raccoglie dati personali identificativi degli studenti (attraverso account personali, dati di utilizzo associati all'identità), la scuola deve acquisire il consenso dei genitori per gli studenti under 14, ai sensi dell'art. 2-quinquies del Codice Privacy italiano. Se lo strumento viene usato in modalità anonima o pseudonima, senza trasmissione di dati identificativi, gli obblighi di consenso si riducono significativamente. In ogni caso, l'informativa privacy deve essere aggiornata e comunicata a studenti e famiglie.

Quando una scuola deve fare la DPIA prima di adottare uno strumento AI?

La DPIA è obbligatoria quando il trattamento può comportare rischi elevati per i diritti degli studenti. Nel contesto scolastico con AI, i casi tipici sono: profilazione sistematica degli studenti (piattaforme di apprendimento adattivo), trattamento su larga scala di categorie particolari di dati (salute mentale, difficoltà di apprendimento), e sorveglianza sistematica degli studenti (riconoscimento facciale). In caso di dubbio, è consigliabile consultare il DPO dell'istituto.

Qual è la differenza tra un account ChatGPT gratuito e una versione enterprise per le scuole?

Le versioni enterprise di strumenti AI come ChatGPT Education o Microsoft 365 Education offrono garanzie GDPR che gli account gratuiti personali generalmente non forniscono: server localizzati in UE, Data Processing Agreement (DPA) disponibile, politiche chiare sulla non utilizzazione dei dati per addestrare modelli AI, e garanzie contrattuali sull'accesso ai dati. Per l'uso scolastico con studenti minori, le versioni enterprise sono fortemente preferibili e spesso l'unica opzione conforme alla normativa.

Il DPO della scuola deve approvare l'uso di ogni strumento AI?

Il DPO non ha un ruolo di approvazione formale, ma deve essere consultato ogni volta che la scuola introduce trattamenti a rischio elevato (art. 38 GDPR). Nella pratica, è buona norma coinvolgere il DPO per qualsiasi strumento AI che tratti dati personali degli studenti, anche per trattamenti non ad alto rischio. Il DPO fornisce consulenza, verifica la conformità e documenta le valutazioni. Se il DPO non ha competenze tecniche AI specifiche, può essere supportato da un referente tecnico interno.

I dati degli studenti possono essere usati per addestrare modelli AI?

No, salvo consenso esplicito e specifico. I dati personali degli studenti raccolti per finalità didattiche non possono essere riutilizzati per addestrare modelli AI senza una base giuridica autonoma e senza informare adeguatamente gli interessati. I provider di strumenti AI per il settore education si impegnano contrattualmente a non utilizzare i dati degli utenti per il training dei modelli — questa clausola deve essere verificata esplicitamente nel contratto o nelle condizioni d'uso prima dell'adozione di qualsiasi strumento.

Vuoi portare la formazione AI nella tua scuola?

ScuolaTech ti aiuta a scegliere i corsi, preparare la candidatura su FUTURA e gestire la rendicontazione.

Richiedi informazioni