Il diritto fondamentale alla protezione dei dati personali è garantito in particolare dai regolamenti (UE) 2016/679 (11) e (UE) 2018/1725 (12) del Parlamento europeo e del Consiglio e dalla direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio. La direttiva 2002/58/CE del Parlamento europeo e del Consiglio tutela inoltre la vita privata e la riservatezza delle comunicazioni, in particolare stabilendo le condizioni per l'archiviazione di dati personali e non personali e l'accesso ai dati in apparecchi terminali.
Tali atti giuridici dell'Unione costituiscono la base per un trattamento sostenibile e responsabile dei dati, anche nei casi in cui gli insiemi di dati comprendono una combinazione di dati personali e non personali.
Il punto 3 dell’allegato III al regolamento Ue sull’intelligenza artificiale n. 2024/1689 ribadisce l’alto rischio per il settore Istruzione e formazione professionale nell’utilizzo dei sistemi di IA: “L'IA può nel contempo, a seconda delle circostanze relative alla sua applicazione, al suo utilizzo e al suo livello di sviluppo tecnologico specifici, comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dal diritto dell'Unione. Tale pregiudizio può essere sia materiale sia immateriale, compreso il pregiudizio fisico, psicologico, sociale o economico.
In particolare sono 4 le categorie di IA ad alto rischio per l’ambito dell’istruzione:
- I sistemi di IA destinati ad essere utilizzati per determinare l’accesso, l’ammissione o l’assegnazione di persone fisiche agli istituti di formazione professionale. Il rischio che si intravede è semplice ossia valutare il titolo di una persona mediante l’IA potrebbe generare discriminazioni e intaccare il buon andamento e l’imparzialità dell’attività degli uffici;
- I sistemi di IA destinati a valutare i risultati dell’apprendimento, dunque la valutazione di prove intermedie o finali, fino alla valutazione complessiva del curriculum scolastico. Il rischio che si intravede è la possibilità di nuovo che ci siano discriminazioni con effetti negativi sul raggiungimento degli obiettivi delle istituzioni scolastiche;
- I sistemi di destinati a valutare il livello di istruzione adeguato che una persona dovrebbe avere. Questi giudizi devono vertere anche su aspetti soggettivi e aspirazionali dello studente, che comportano la lettura della personalità dello studente e la previsione di ciò che gli è più o meno appropriato, non soltanto di voti matematici. Diversamente potrebbero esserci pericoli per la crescita e lo sviluppo della personalità degli studenti;
- I sistemi di IA destinati ad essere utilizzati per monitorare e rilevare comportamenti vietati (condotte illegittime) degli studenti durante le prove nel contesto o all’interno di istituti di istruzione e formazione professionale a tutti i livelli. Qui si evidenzia il rischio di sanzioni ingiustificate portate da output sbagliati e allucinazioni dell’IA.
Si può provvedere e prevedere il rischio del manifestarsi di questi fenomeni e problematiche, mediante la sorveglianza e il monitoraggio costante del funzionamento dell’IA da parte dell’uomo e il rispetto della trasparenza: studenti e famiglie dovranno avere informazioni puntuali e spiegazioni chiare e significative a riguardo dell’uso di un sistema di IA.
Ovviamente quindi si potrebbe e dovrebbe pensare a una posizione di alta specializzazione se non addirittura un ufficio per la funzione di sorveglianza umana di cui necessita l’IA a scuola. Si può quindi ipotizzare un responsabile scolastico dell’Intelligenza artificiale che dialogherà costantemente con il responsabile della protezione dei dati.