Manzi: Scuola e intelligenza artificiale

Pubblichiamo l’ultimo degli interventi della serata “Camminare a testa alta – L’insegnamento che genera valori”, organizzata dall’Istituto Maria Ausiliatrice di Castellanza per ricordare i 100 anni dalla nascita del maestro Manzi.

In questo episodio vedremo come  Alberto Manzi si confronta con i mezzi di comunicazione nell’avventura di “Non è mai troppo tardi”.  L’intervento è della dott.ssa Moroni, ricercatrice presso la Fondazione “Bruno Kessler”.
Riprendiamo il filo del discorso con alcune note biografiche offerte dall’Assessore alla Cultura della Città di Castellanza, Davide Tarlazzi.

 

Facciamo un ultimo passaggio, che ci consente di confrontare l’esperienza di Manzi con un’altra pagina che caratterizza le nostre vite, le nostre giornate, perché Manzi è stato un maestro colto, un maestro con le sue idee e con la capacità di battagliare. Ma è stato anche un maestro moderno e questa modernità la possiamo in qualche modo leggere alla luce di questo incontro, del tutto casuale, con una grande operazione culturale su scala nazionale che comincia nel 1958, mentre è Ministro della pubblica istruzione Aldo Moro. Ed è proprio Moro che inaugura la trasmissione Rai “Telescuola”, primo tentativo di portare la scuola dove la scuola non c’è. Dove mancano le scuole, i giovani si trovano davanti ad una televisione. E in quell’aula, dove le persone sono convenute davanti alla televisione, c’è un maestro tutor che affianca il formatore che sta nello studio televisivo. Questa operazione pionieristica non ha un grandissimo successo. E così la Rai decide di avviare un’altro esperimento, “Non è mai troppo tardi”, che incomincia le proprie trasmissioni l’11 novembre del 1960 ma, come sanno quelli che hanno approfondito la storia, a quindici giorni dalla partenza del programma il maestro-presentatore non c’è. Non ne hanno trovato uno adatto. Allora la Rai lancia delle nuove selezioni e sollecita le scuole romane a mandare gente che possa guidare il programma. 

La “Fratelli Bandiera” manda Manzi e Manzi quel giorno va alle selezioni con la febbre, però da persona intelligente, osserva. Abbiamo detto che una delle qualità del maestro è innanzitutto osservare. E di cosa si è accorto? I candidati che stanno andando prima di lui sono preparatissimi, ma non ha capito che non si tratta di fare in televisione le cose che fanno in aula; c’è un mezzo, uno strumento nuovo di cui bisogna tenere conto. Quindi, quando Manzi va davanti alla Commissione chiede dei fogli e inizia a disegnare, a fare e disfare. I Commissari, che non ne potevano più di questi provini, si accendono per questa modalità che lui ha nel gestire la selezione e capiscono di aver trovato la persona giusta. 
Parte la trasmissione  – che andrà avanti fino al ‘68 – e prende alcune delle caratteristiche di quelle che erano le telescuola: anche lì c’erano questi gruppi che si trovavano disseminati nell’Italia davanti a un televisore, anche lì c’era un maestro tutor e Manzi, però in diretta. La trasmissione chiuderà i battenti quando vorrebbero fare la differita, ma Manzi si oppone volendo rimanere in diretta. E quindi poi si andrà su altri progetti.
Manzi farà anche altri programmi. Pur rimanendo la persona che abbiamo imparato a conoscere, questo ci fa vedere anche la sua creatività e l’interesse di confrontarsi con il nuovo che avanza. Proprio in questa dimensione troviamo il parallelismo per questo ultimo intervento della dottoressa Moroni che vuole mettere a fuoco il tema dell’intelligenza artificiale. Questo tema è sicuramente presente nell’esperienza di ciascuno di noi e, siccome la scuola non è avulsa e separata dal mondo, anche in essa. La scuola ha già cominciato a interrogarsi a tutti i livelli, dai gradi più bassi fino alla formazione universitaria.
Lasciamo quindi la parola alla dottoressa Moroni e le chiediamo di raccontarci il suo punto di vista, e chiedendole di mettere in luce come il progresso avanza sicuramente con le proprie opportunità, ma anche con i rischi connessi.

 

E ora passiamo all’intervento della dott.ssa Moroni

Buonasera.Allora, prima di parlare di intelligenza artificiale e educazione, vorrei sapere da voi quali sono le prime cose che vi vengono in mente quando dico intelligenza artificiale.
Qualcuno dice scorciatoia, qualcuno opportunità.

Adesso facciamo l’esercizio al contrario: vediamo alcune immagini. La prima è chat GPT, penso che molte persone quando pensano all’intelligenza artificiale, pensano subito a questo strumento. La seconda immagine è un deep fake, quindi un’immagine non reale, che è stata generata dallo strumento di intelligenza artificiale. Terzo esempio: questa è un’opera d’arte che è stata venduta all’asta pochi giorni fa,  per oltre un milione di dollari. È un’opera d’arte realizzata da un robot umanoide, quindi da un sistema di intelligenza artificiale.
Cosa hanno in comune tutte queste immagini e i nomi ad esse associate? Sono tutti esempi di quel tipo di intelligenza artificiale che è chiamata generativa, quindi capace di creare qualcosa, che può avere la forma di un testo come nel caso di chat GPT o di immagini.

 

Una breve storia

L’intelligenza generativa è quella che ha puntato il faro sull’intelligenza artificiale, ma in realtà questo strumento non è nato due anni fa, per intenderci, quando è stata rilasciata la versione online di chat GPT. La storia è più lunga e ha avuto i suoi alti e bassi, adesso andiamo a scorrerla rapidamente insieme  per vedere di cosa parliamo. Allora l’intelligenza artificiale nasce ufficialmente nel 1956, quando viene creato questo termine da un gruppo di professori matematici e ingegneri americani, che hanno questa idea: creare un sistema che possa in qualche modo imitare il ragionamento proprio dell’essere umano. È un’idea che piace, quindi una società si interessa e investe, ma dopo pochi anni si vede che rispetto alle aspettative i risultati sono molto deludenti. E così inizia quello che è definito il primo inverno dell’intelligenza artificiale. Dopo altre ricerche, si esce da questo inverno con lo sviluppo di nuovi prototipi, ma anche in questo caso, dopo pochi anni le aspettative non vengono soddisfatte e inizia il secondo inverno dell’intelligenza artificiale. Arriviamo quindi agli anni 2000, quando l’introduzione di modelli legati alle machine learning, provoca una svolta e l’intelligenza artificiale inizia a diffondersi e da allora non si ferma.
Cosa è cambiato negli anni 2000?  Possiamo riassumerlo con tre ingredienti abbastanza semplici.
Il primo ingrediente sono i dati. Oggi ci sono a disposizione tanti dati in formato digitale e i modelli di intelligenza artificiale che lavorano adesso imparano soprattutto dai dati. Oggi non è necessario dire al modello come deve comportarsi, ma occorre dargli dei dati, e il modello dai dati tira fuori la sua conoscenza.
Per fare questo serve il secondo ingrediente, che è quello delle risorse di calcolo dei computer. Servono dei computer potenti per gestire grandi moli di dati; e i computer di oggi continuano a diventare sempre più potenti.
L’ultimo ingrediente di cui abbiamo già parlato sono appunto i modelli matematici, che sono alla base dei sistemi di intelligenza artificiale.
Questi tre ingredienti hanno permesso, dagli anni 2000, di far in modo che l’intelligenza artificiale potesse soddisfare le aspettative che si avevano nei suoi confronti. Tuttavia, il vero boom è stato pochi anni fa con la comparsa dell’intelligenza artificiale generativa. 
Qual è la differenza? Prima i modelli di intelligenza artificiale, vanno sviluppati così: dato un problema, i ricercatori matematici sviluppavano uno strumento che rispondesse a quel problema. I modelli alla base dell’intelligenza artificiale generativa funzionano in maniera diversa: prendono i dati e da questi dati imparano. Ma cosa imparano? In realtà imparano a fare qualcosa che per noi può essere estremamente semplice. Prendiamo ad esempio del testo, noi insegniamo ai modelli a completare la parola mancante in una frase. In questo modo però cosa succede? Che il modello non impara solo a fare questo compito, ma impara quella che definiamo una rappresentazione della realtà, ovviamente una rappresentazione della realtà basata sui dati che ha visto. Con questa rappresentazione della realtà quel modello può fare tante cose. Quindi adesso non abbiamo più: un problema e il rispettivo modello, ma abbiamo un modello che può risolvere tantissimi problemi. Per questo motivo abbiamo dei modelli che possiamo usare per fare qualsiasi cosa, che sono quindi utilizzati in tanti ambiti diversi, può essere industria, può essere la finanza, può essere la salute, può essere l’educazione. 

 

Intelligenza artificiale e scuola

Ora andiamo a vedere come l’intelligenza artificiale è usata in ambito educativo e per farlo vi porterò degli esempi presi dagli Stati Uniti, perché ci sono a disposizione un numero di ricerche maggiore rispetto ad altre realtà.
partiamo dal lato degli insegnanti: cosa cosa può essere per gli insegnanti l’intelligenza artificiale?

La prima domanda rivolta agli insegnanti americani è stata: “Fate uso di intelligenza artificiale per il vostro lavoro?” Il 60% degli intervistati ha risposto: sì. Quindi, una buona parte degli insegnanti sta già utilizzando qualche strumento di intelligenza artificiale nella didattica.
Se chiediamo per cosa viene utilizzata, il quadro diventa più variopinto: per preparare o personalizzare il materiale didattico, perché lo stesso contenuto può essere presentato in diverse modalità e l’intelligenza artificiale permette di rendere la presentazione più interattiva o di diversificarla in base all’uditorio.
Alcuni affermano che la usano per facilitare le pratiche amministrative o burocratiche, o anche per le valutazioni. 

Vediamo invece il lato degli studenti. In questo caso la domanda è stata: “Quali strumenti di intelligenza artificiale usate in ambito didattico?”
Prima risposta: chat GPT, poi anche un’altra serie di strumenti, tutti basati sull’intelligenza artificiale e generativa.
Anche in questo caso alla domanda “Per cosa li usate?” le risposte sono diverse: alcuni per curiosità o per provare, altri come supporto ai compiti, altri ancora per farsi fare i compiti, e alcuni per fare ricerche.

Quindi sembra che negli Stati Uniti, l’intelligenza artificiale sia già presente nella didattica. Tralasciando chi si fa fare i compiti, gli altri utilizzi sembrano  anche positivi. In realtà il quadro non è proprio così roseo; dalla mia esperienza in ambito di ricerca universitaria, posso riportare un esempio che coinvolge i giovani.
Il target della ricerca finora coinvolge ragazzi di 13-14 anni, mentre io lavoro con giovani universitari. Nel mio contesto, alla domanda: “Perché questo risultato è stato presentato in questo modo?” La risposta dello studente è stata: perché l’ha detto chat GPT. 
Noi ci occupiamo di intelligenza artificiale e una risposta di questo tipo fa un po’ cascare le braccia, però fa capire che poter utilizzare uno strumento di intelligenza artificiale non è tutto. Quindi quello che la scuola, ed il sistema educativo, possono fare è creare la giusta consapevolezza per l’utilizzo di questi strumenti: non solo mostrare cosa si può fare, ma anche dove sono i limiti e i rischi legati all’utilizzo di questi strumenti.

 

Alcuni rischi

Ora vorrei fare alcuni esempi di limiti e rischi, partendo proprio dai tre elementi che abbiamo elencato all’inizio. Per capire i rischi non serve essere esperti di intelligenza artificiale, ma è sufficiente conoscere  un po’ cosa c’è alla base dei modelli. Questo ci permette di utilizzare gli strumenti in maniera più critica. 

Il primo ingrediente è il dato; abbiamo detto che i sistemi di intelligenza artificiale imparano “da soli”, proprio attraverso i dati. Se i dati rappresentano solo una parte della realtà, allora la rappresentazione che entra nel sistema di intelligenza artificiale può non corrispondere a quella che è effettivamente la realtà. Quando dato e realtà non corrispondono si ha un bias, o discriminazione.
Per fare un esempio concreto attinente al mio campo, ovvero l’intelligenza artificiale applicata all’ambito medico, possiamo prendere in considerazione uno dei primi sistemi di intelligenza artificiale sviluppata negli Stati Uniti, costruita per diagnosticare una malattia dell’occhio. Nell’ambito della ricerca il sistema funzionava benissimo: la diagnosi fatta era corretta nel 90% dei casi. Una volta iniziato l’utilizzo negli ospedali non riusciva più a fare diagnosi corrente. Perché? Nell’ambito della ricerca era stato addestrato utilizzando dati di: americani, bianchi, anziani, uomini. Ma la popolazione americana non è una popolazione formata solo da: americani, bianchi, anziani, uomini. Quindi il sistema aveva lavorato su dati parziali e ora, con un campione diverso e più vasto, non poteva funzionare bene.
Come si può risolvere questo problema? Dal punto di vista della ricerca – che è l’ambito nel quale lavoro – si cerca di sviluppare strumenti che tengano conto di questa cosa: andare a studiare i dati da cui i sistemi imparano e fare attenzione ad aspetti come la sicurezza dei dati e il loro trattamento. Inoltre, si creano modelli “trasparenti”: non solo un modello che funziona, ma anche sapere cosa sta facendo il modello.

Dal punto di vista della didattica. Sia l’Unione Europea che l’UNESCO hanno pubblicato linee guida per regolamentare l’uso dei sistemi di intelligenza artificiale, in particolare perché ci sia da parte degli studenti una certa attenzione a questi temi.

Il secondo esempio di rischio legato all’intelligenza artificiale si collega al secondo ingrediente: le risorse di calcolo. Qui entra in gioco la differenza fondamentale tra intelligenza umana e intelligenza artificiale.

L’intelligenza umana è sostenibile dal punto di vista ambientale, mentre l’intelligenza artificiale no. È stato calcolato che per addestrare il modello alla base di chat GPT,le prime versioni quindi modelli più semplici di quelli che si usano ora, sono state emesse quantità di anidride carbonica pari a 100 volte quelle emesse da un essere umano in tutta la sua vita. 

E questo solo per addestrare una volta questo modello. Un’altro esempio, se facciamo la stessa ricerca su Google e su chat GPT, quando utilizziamo chat GPT consumiamo più energia, 10 volte tanto.
Questo cosa vuol dire? Che laddove lo strumento di intelligenza artificiale è l’unico che può darci il risultato desiderato, allora ha senso l’utilizzo di quel sistema. Ma, se facendo una ricerca su Google possiamo ottenere lo stesso risultato, allora possiamo chiederci cosa è meglio usare, considerando l’impatto che hanno i due sistemi sul consumo di energia. Si tratta di creare la consapevolezza necessaria e poter scegliere con cognizione di causa. Se vogliamo fare un parallelismo:  se dobbiamo andare da qui a un isolato di distanza, non prendiamo la macchina, andiamo a piedi. Potremmo prendere la macchina, però pochi di noi, si spera, lo fanno. 

L’ultimo esempio è legato alla combinazione di questi tre elementi: nessuno di essi è gratuito. Si pone quindi un problema di accessibilità. Se è vero che tramite lo smartphone possiamo accedere alla rete e quindi alle app di intelligenza artificiale, tuttavia ricerche condotte negli Stati Uniti hanno mostrato che studenti con redditi minori hanno meno accesso e utilizzano meno tali strumenti rispetto a studenti con redditi più alti. Ciò pone alcune domande, perché rende impari il livello di accesso all’educazione. Bisognerebbe trovare un modo in cui l’utilizzo dell’intelligenza artificiale sia davvero alla portata di tutti.

Ora, come fare ad affrontare questi rischi? Dal punto di vista della ricerca, che è quello che posso portarvi io, si cerca di sviluppare la cosiddetta “intelligenza artificiale incentrata sull’uomo”. Non più la ricerca di strumenti di intelligenza artificiale che semplicemente funzionino bene – perché questi abbiamo visto che ci sono e si possono costruire – ma si vuole porre attenzione anche ad altri aspetti. Quindi ad esempio, l’attenzione al dato che viene utilizzato: creare sistemi di intelligenza artificiale che siano equi e che non contengano cose discriminazioni; sistemi di intelligenza artificiale pensati per scopi che facciano bene all’uomo, quindi un’attenzione al tipo di utilizzo  che poi si fa del sistema; sistemi di intelligenza artificiale che siano spiegabili, ovvero non più delle scatole chiuse dove noi abbiamo una risposta che può sembrare la verità assoluta, ma dei sistemi che ci facciano vedere cosa stanno facendo, come stanno ragionando, in modo tale che noi possiamo anche verificare che questi ragionamenti siano in linea con i nostri principi etici. 

 

(testo trascritto, non rivisto dall’autore)