Cosa succede quando l’intelligenza artificiale (IA) entra nelle aule scolastiche? La domanda è al centro di un articolo firmato da Vincenzo Cascino, docente di Pedagogia Speciale all’Università di Genova, pubblicato sull’Italian Journal of Special Education for Inclusion. Il titolo, “Artificial Intelligence at school: challenges and opportunities”, è esplicito, e lo è ancora di più l’analisi che segue: un bilancio lucido, tra entusiasmo per le potenzialità e consapevolezza dei rischi.
Secondo Cascino, l’IA ha già cominciato a trasformare il modo di insegnare e di apprendere. Non si tratta più di scenari futuristici: chatbot che rispondono in tempo reale alle domande degli studenti, piattaforme educative intelligenti che si adattano al ritmo di ciascuno, ambienti virtuali che facilitano la partecipazione degli alunni con disabilità… sono solo alcuni esempi di come la tecnologia stia entrando nella didattica quotidiana. Per molti, si tratta di un sogno educativo che prende forma: personalizzazione, accessibilità, autonomia, motivazione. Ma ogni innovazione porta con sé anche nuove domande, spesso urgenti. Chi programma gli algoritmi? Con quali criteri? Come vengono trattati i dati sensibili degli studenti, soprattutto quelli più vulnerabili? E cosa succede se un sistema automatizzato assegna un voto o suggerisce un percorso didattico basandosi su dati parziali o su pregiudizi nascosti nel codice?
L’autore non cede alla tecnofobia, ma invita a non abbassare la guardia. Se utilizzata senza una visione pedagogica forte e senza adeguati controlli, l’intelligenza artificiale può diventare un meccanismo opaco e persino discriminatorio. Gli algoritmi – se non progettati con attenzione – possono amplificare le disuguaglianze sociali, culturali e cognitive, piuttosto che ridurle. Alcuni Paesi, come la Francia, hanno scelto la via del rigore vietando l’uso degli smartphone a scuola. In Italia, invece, il dibattito è ancora aperto, spesso frammentato e privo di una cornice normativa solida. In questo scenario fluido, Cascino richiama la necessità di un approccio educativo consapevole, fondato su trasparenza, supervisione umana e formazione critica degli insegnanti. L’articolo entra poi nel merito del rapporto tra IA e pedagogia speciale, ambito che si occupa dell’inclusione scolastica di studenti con disabilità, disturbi specifici dell’apprendimento (DSA) e bisogni educativi speciali (BES). Qui l’IA può rivelarsi una risorsa particolarmente efficace, a patto che venga progettata secondo i principi di accessibilità, adattività e trasparenza.
Tre le applicazioni principali:
- Personalizzazione dell’apprendimento: l’IA consente di creare percorsi su misura per ogni studente, tenendo conto delle sue capacità, fragilità e stili cognitivi. Piattaforme intelligenti, tutor virtuali, sistemi di learning analytics e modelli di natural language processing possono supportare concretamente studenti con DSA o con disturbi dello spettro autistico. “L’IA consente un livello di personalizzazione impensabile con la didattica tradizionale”, afferma Cascino, “risultando particolarmente efficace nei contesti speciali”.
- Supporto alla comunicazione aumentativa e alternativa (CAA): tecnologie basate su IA come il riconoscimento vocale, l’eye-tracking e le interfacce visive intelligenti possono facilitare la comunicazione per chi ha disabilità motorie o verbali, migliorando l’autonomia e la partecipazione attiva.
- Diagnosi precoce e monitoraggio continuo: attraverso l’analisi dei comportamenti e dei risultati scolastici, alcuni sistemi intelligenti riescono a individuare precocemente segnali di difficoltà nell’apprendimento, offrendo così agli insegnanti strumenti di intervento tempestivi e mirate.
Naturalmente, non mancano le criticità. La prima riguarda i bias algoritmici: se i dati su cui si addestrano i sistemi non sono rappresentativi o contengono pregiudizi, il rischio è quello di produrre decisioni inique. Poi c’è il problema della deumanizzazione: affidare all’IA funzioni educative rischia di ridurre la relazione umana, centrale nella pedagogia speciale. Infine, la disparità di accesso: non tutte le scuole dispongono delle stesse risorse tecnologiche, e questo può accentuare il divario educativo. “L’IA deve essere uno strumento, non un sostituto della relazione educativa”, ribadisce Cascino. “L’empatia, la cura e la capacità di ascolto non sono replicabili da alcun algoritmo”. Per evitare che la tecnologia diventi una scorciatoia pericolosa, serve una nuova alfabetizzazione etico-tecnologica destinata ai professionisti della scuola. E soprattutto, sottolinea Cascino, è fondamentale che le soluzioni digitali non siano progettate esclusivamente da informatici o aziende private, ma co-costruite insieme a pedagogisti, educatori, famiglie e studenti stessi.
“L’innovazione in ambito educativo non può essere lasciata solo agli informatici: deve essere guidata da una visione pedagogica forte”. È questa, secondo l’autore, la vera sfida del presente: mettere la tecnologia al servizio dell’inclusione, senza mai perdere di vista la centralità della persona, la diversità dei bisogni e il valore insostituibile della relazione educativa.














