L’artificial intelligence sta trasformando in maniera dirompente praticamente tutti i settori. Tra questi, si trovano certamente la formazione, la scuola, l’università e la ricerca. Uno strumento in grado di offrire risposte, in linguaggio naturale, potenzialmente su qualsiasi argomento non può che cambiare il modo in cui insegniamo, impariamo, ci formiamo.
L’AI nella formazione
Nell’area del life-long learning e dell’innovazione continua e accelerata, nessuno può permettersi di non aggiornarsi in maniera continuativa, potenzialmente per tutta la vita. Da qui la nascita, la diffusione e il successo di piattaforme, applicazioni per continuare a formarsi e a imparare.
In questo, ChatGPT e le altre applicazioni conversazionali basate su LLM offrono nuove opportunità di trasformazione ulteriore della didattica, un ambito già rivoluzionato dalla diffusione dei MOOC come Coursera, realizzati anche da università “tradizionali”, come il Politecnico di Milano che ha sviluppato l’area Polimi Open Knowledge (POK), ricca di corsi e contenuti aperti a tutti.
La formazione guidata dall’intelligenza artificiale
Tra gli esempi di formazione guidata dall’intelligenza artificiale un caso notevole è quello di Duolingo, l’app unicorno che ha trasformato, rendendolo giocoso, il modo in cui si studiano le lingue. A fare da tutor, un piccolo gufo verde, di nome Duo, che sa tutto dello studente, studia e adatta il percorso di apprendimento, individua i problemi più grandi, i punti di forza e adatta la proposta formativa e gli esercizi in maniera dinamica, continuamente.
Chi studia data science non può non aver sentito nominare DataCamp, la piattaforma di e-learning dedicata a discipline come machine learning, deep learning, data science, data engineering, statistica applicata, programmazione Python. Da qualche tempo, in piattaforma, è comparso l’assistente AI che non solo corregge il codice e fornisce la risposta giusta, ma spiega il tipo di errore commesso, lo contestualizza e guida lo studente nel miglioramento continuo delle proprie capacità di modellizzazione, programmazione, statistica applicata.
Le grandi opportunità e i rischi connessi all’uso dell’AI nella didattica
Modelli come ChatGPT di OpenAI e Claude di Anthropic hanno da subito innescato la trasformazione delle pratiche educative, fornendo strumenti innovativi e utili, che devono essere integrati alla pratica dell’insegnamento e dell’apprendimento, facendo evolvere gli approcci tradizionali, consolidati ed efficaci, alla formazione.
L’AI generativa rende possibili esperienze di apprendimento adattive e personalizzate sulle necessità specifiche e sulle capacità individuali degli studenti, accelerando e approfondendo l’apprendimento integrandosi ovviamente a una molteplicità e varietà di strumenti pedagogici.
Oltre a grandi opportunità, esistono diversi rischi, che meritano di essere affrontati e di cui si occupa anche UNESCO, mettendo a disposizione strumenti, linee guida, indicazioni, raccolte nella pagina AI Future of Learning, in cui, oltre alla definizione dei principi etici che dovrebbero guidare gli sviluppi dell’intelligenza artificiale in diversi ambiti della società e del sapere, si approfondisce il ruolo trasformativo dei Larga Language Model (LLM) come strumenti di insegnamento e di apprendimento, fornendo anche una sorta di manuale di utilizzo.
Una guida molto utile, dato che tutti gli applicativi basati su LLM portano opportunità e rischi che possono riflettersi sulla qualità dell’accompagnamento nel processo di insegnamento e apprendimento e che, se conosciuti e accuratamente gestiti, possono ridurre fortemente l’impatto negativo.
Diversi di questi rischi sono intrinseci ai foundation model e al loro funzionamento e sono indipendenti dallo specifico contesto applicativo; alcuni di questi sono particolarmente rilevanti in un contesto delicato come quello della formazione:
- disinformazione: le allucinazioni, ovvero informazioni plausibili ma inventate dal modello;
- rafforzamento dei pregiudizi: l’amplificazione dei bias o la mancanza di equità rispetto a categorie, gruppi, concetti sottorappresentati nei dati su cui è stato fatto il training e nei relativi modelli;
- privacy: data leakage o la diffusione di informazioni personali;
- diritto d’autore: un tema molto complesso, che attiene al modo in cui i modelli di machine learning imparano da basi di conoscenza create da terzi non remunerati per questo;
- sicurezza: i modelli sono proni ad attacchi avversari, deepfake, moltiplicazione dello spam, ecc.
- dipendenza ed eccessivo affidamento: svilimento del processo di apprendimento, impoverimento delle competenze per la scrittura, l’esercizio della memoria, dello spirito critico e analitico e nella presa delle decisioni;
- distribuzione non equa delle opportunità e allargamento del divario sociale: ogni innovazione in grado di potenziare le facoltà di individui e gruppi può essere sfruttata in maniera differente a seconda del contesto di riferimento dei soggetti interessati. In ambienti più consapevoli e strutturati, si osserverà un’adozione consapevole, sicura e rapida di strumenti innovativi, che non saranno ugualmente valorizzati in contesti svantaggiati, con conseguente crescita delle disparità;
- impatto economico ed eliminazione dei posti di lavoro: anche se non sarà probabilmente la fine del lavoro come alcuni tra i commentatori più apocalittici prospettano, certamente la diffusione di soluzioni basate sull’intelligenza artificiale rende necessario un processo di adattamento, formazione, riorientamento delle persone, portando a una potenziale disruption (che non è mai un processo indolore per tutti) in ogni settore economico e della società;
- impatto ambientale: gli LLM sono fortemente energivori; la diffusione sempre più pervasiva e di massa nella scuola e nelle università potrebbe dare un contributo all’incremento delle emissioni.
Le contromisure per usare consapevolmente gli LLM nella didattica
I rischi riportati sopra richiedono consapevolezza e responsabilità, permettendo di intraprendere azioni che ne mitigano gli impatti. La base di tutto è la conoscenza: la una comprensione del funzionamento, dei punti di forza e dei rischi degli LLM guida lo sviluppo di azioni efficaci di mitigazione del rischio.
- Come ridurre le allucinazioni
Un utilizzo non consapevole dello strumento, in un campo del sapere su cui si ha poca dimestichezza, potrebbe generare risposte plausibili ma totalmente inventate dal modello, costruito per dare risposte ed essere molto accondiscendente con le richieste che gli vengono fatte.
La prima soluzione è sperimentare all’interno del proprio ambito competenza, testando l’IA attraverso diversi prompt (le istruzioni date da tastiera o vocalmente) e valutandone i risultati. È in contesti in cui si è competenti che gli LLM sono uno strumento straordinario per approfondire un tema, riassumere un testo, integrare una ricerca, offrire esempi spunti e alternative, spiegare e rendere comprensibile e semplice un tema complesso…
Una soluzione più radicale è quella di specializzare il modello, attraverso fine-tuning, inserire guardrails e filtri, in grado di limitare o inibire comportamenti indesiderati del modello.
È inoltre possibile limitare le proposte e le risposte di un LLM a un corpus di conoscenze certificate e controllate, fornendo documenti e referenze su cui basare le elaborazioni: uno degli sviluppi più interessati dell’IA generativa è proprio la creazione di agenti generativi realizzati attraverso RAG (Retrieval Augmented Generation), ovvero il processo di ottimizzazione dell’output di un LLM, le cui risposte possono attingere solo a un set di conoscenze delimitato e circoscritto (ad esempio: pubblicazioni, libri di testo, ecc.) fornite dall’utilizzatore.
2. Come evitare rafforzamento di pregiudizi e mancanza di equità
Anche in questo caso, sono fondamentali la conoscenza del tema e delle sue implicazioni, del contesto di applicazione e ambito di studio e qualche rudimento sul funzionamento degli LLM. Ancora una volta, conoscere le fonti e le basi di conoscenza su cui si è allenato il modello lo rende meno prono a comportamenti indesiderati. Si può inoltre circoscrivere le fonti caricandole sulla chat conversazionale o realizzando un RAG e un agente generativo specializzato, oppure creando dei prompt specifici in grado di filtrare le informazioni in entrata e in uscita, riducendo il rischio. Si rimanda poi allo spirito critico del docente o del discente, che dovrebbe conoscere eventuali bias e pregiudizi presenti nella documentazione di training.
3. Come ridurre i rischi legati alla privacy
Anche da questo punto di vista, occorre comprendere il contesto in cui si utilizzano chatbot e applicativi basati su AI. In contesti in cui si vogliono o devono fornire informazioni riservate per ottenere le informazioni desiderate occorre sincerarsi che si abbiano i diritti per condividere queste informazioni, che queste stesse non siano sensibili, ovvero che si stia utilizzando un’istanza privata – come molte aziende e organizzazioni stanno effettivamente facendo – di un LLM in cui ci sia la garanzia di non utilizzo dei dati forniti per allenare il modello generale.
4. Come ridurre rischi legati al diritto d’autore
Non si può qui entrare nel tema molto complesso della base su cui i foundation model sono stati allenati, tuttavia, come singoli possiamo essere trasparenti sull’utilizzo delle fonti fornite consapevolmente al modello per la generazione di output. Un comportamento dovuto sia verso gli autori, eventualmente compensati per utilizzi commerciali, sia verso i destinatari delle soluzioni, informati sia dell’utilizzo di strumenti di supporto per la creazione dei contenuti, sia di eventuali bias o pregiudizi o rilevanza delle fonti utilizzate.
5. Come limitare i rischi legati alla sicurezza
Rispetto ai rischi legati alla sicurezza, nella didattica è importante rendere consapevoli gli studenti del peso che hanno la trafugazione dei dati, gli attacchi avversari, l’utilizzo maligno di deepfake e alterazioni della realtà. L’IA rende ancora più necessaria la presenza di fonti autorevoli e la conoscenza profonda di argomenti e tematiche verticali, due aspetti che riducono notevolmente il rischio di cadere nelle possibili trappole generate da agenti autonomi, allenati su set di dati di incerta provenienza.
6. Come ridurre i rischi legati alla dipendenza e all’eccessivo affidamento
In ambito formativo, un rischio importante è proprio quello dell’eccessivo affidamento. Gli studenti hanno a disposizione uno strumento in grado di realizzare svariati tipi di output, con potenziale annullamento dello sforzo cognitivo e produttivo che è richiesto per un apprendimento profondo, che, occorre ricordarlo, significa impegno, dedizione e fatica. Per scongiurare questo rischio occorre che siano i docenti a formare gli studenti a un utilizzo corretto dello strumento, incoraggiandone l’adozione ma in modalità che accrescano la conoscenza, che permettano di approfondire ed esplicare sempre meglio. Occorre usare l’intelligenza artificiale come strumento per imparare di più, per approfondire, per espandere le abilità dello studente, non per rendergli la vita più comoda.
7. Riduzione dell’impatto economico ed eliminazione dei posti di lavoro
Il rischio, in questo caso, risiede nella sostituzione degli insegnanti con agenti generativi, oppure nell’espansione del numero di studenti per aula, nella convinzione che l’insegnante sia un mero orchestratore di contenuti generati dagli LLM. Una trasformazione generalizzata della formazione, che ha nello scambio con gli altri studenti e gli insegnanti un momento fondamentale di crescita e apprendimento, in MOOC (Massive Open Online Courses) con aule da migliaia di persone. Da evitare è soprattutto un’idea di formazione efficientista, focalizzata solo al conseguimento di competenze, certificazioni, abilità e privata dell’aspetto formativo ed educativo profondo.
8. Riduzione dei rischi legati all’impatto economico e al digital divide
Si tratta di un rischio generalizzato. L’AI è in grado, se usata bene, di fare da acceleratore nei processi di apprendimento. Se usata bene e con obiettivi specifici di riduzione del divario digitale, sociale ed economico potrebbe aiutare le scuole nelle aree più svantaggiate a colmare la distanza dalle scuole di élite. Se non si farà nulla di specifico per il raggiungimento di questo obiettivo, l’AI sarà un ulteriore strumento nelle mani di chi più consapevole e strutturato riuscirà a farne motore di ulteriore sviluppo e crescita.
AI nella didattica: i principi etici
Per orientare le scelte di legislatori ed educatori, nella pubblicazione nel 2023 del rapporto “Guidance for generative AI in education and research”, l’UNESCO ha redatto una guida utile a definire le strategie di alto livello per l’adozione controllata e sicura dell’IA nella ricerca e nella formazione, orientata a utilizzi inclusivi, giusti e sostenibili. Principi che suggeriscono di adottare approcci strutturati, di collegarsi a strategie consolidate e concordate, di fare riferimento agli avanzamenti e all’evoluzione della legislazione e delle regolamentazioni, di favorire la formazione all’utilizzo sano e consapevole, di adottare un approccio di lungo periodo che valorizzi trasformazioni ed evoluzioni.
Anche il World Economic Forum ha stilato una lista di 7 principi per guidare l’applicazione etica dell’intelligenza artificiale nella formazione.
Principio 1: Purpose
L’AI dovrebbe essere impiegata per supportare ed arricchire l’esperienza formativa degli studenti per il raggiungimento degli obiettivi formativi. Dovrebbe inoltre favorire il benessere di studenti, docenti e personale non docente, migliorando anche i processi amministrativi.
Principio 2: Compliance
L’utilizzo dell’AI nella didattica deve avvenire nel rispetto delle regolamentazioni, in particolare per quanto riguarda i delicati temi della privacy, della sicurezza dei dati, della salute degli studenti e della proprietà intellettuale.
Principio 3: AI Literacy
Il terzo principio riguarda le competenze che devono possedere i responsabili delle istituzioni scolastiche, il personale docente e non docente, gli sviluppatori di soluzioni appplicate alla didattica, gli studenti. Tra queste, in particolare, sono menzionate informatica, etica, psicologia, data science.
Principio 4: bilanciamento tra rischi e benefici
Il bilanciamento tra benefici e rischi invita a non assumere posizioni “estreme”, di rifiuto o di acritica adesione. Si suggerisce una bilanciata e consapevole valutazione dei benefici e dei relativi rischi, trovando il modo di cogliere le opportunità esistenti riducendo gli impatti dei secondi.
Principio 5: integrità e rischio di plagio
Per ridurre il rischio di plagi e un utilizzo improprio dell’AI, studenti e docenti devono seguire le linee di comportamento definite dalle proprie istituzioni, che regolano gli utilizzi dell’IA nell’insegnamento e nello studio e lo rendono esplicito e trasparente, rendendo tutte le parti informate rispetto al ruolo che ha avuto l’AI nella produzione di paper, contenuti, esami, soluzioni, ecc.
Principio 6. Tenere le persone al centro
Un principio fondamentale che richiede di mantenere per le persone un ruolo decisivo nel processo decisionale. L’umano deve poter sempre intervenire e comunque avere l’ultima parola e la responsabilità delle azioni e delle decisioni. Nella didattica, educatori e personale amminiatrativo sono coadiuvati e supportati ma non sostituiti dall’AI.
Principio 7. Aggiornamento e revisione costante
Essendo un ambito in continua evoluzione, in cui le tecnologie e le applicazioni evolvono rapidamente, anche le regolamentazioni continuano a cambiare. Educatori e personale direttivo e amministrativo devono restare aggiornati e adattare norme, policy, applicazioni al variare della situazione.
Conclusioni
L’intelligenza artificiale generativa rappresenta un’opportunità straordinaria per trasformare la formazione e per rendere più ricco e profondo l’apprendimento. L’impegno richiesto alle istituzioni scolastiche e universitarie è però rilevante: si richiede di rimanere aggiornati, di definire policy e linee guida, di formare docenti e personale amministrativo, di favorire l’adozione consapevole, di trasformare la didattica e l’apprendimento, di accompagnare gli studenti, favorendo una maggiore comprensione dei concetti, opportunità e occasioni di applicazione, approfondimento e rafforzamento dello spirito critico.
Le opportunità si accompagnano a rischi evidenti, che, lungi dal bloccare lo sviluppo o paralizzare i decisori, devono muoverli a decisioni di fondo importanti e a strategie di lungo periodo, accompagnate da iniziative concrete nelle attività quotidiane.