Utilizziamo i cookie per personalizzare i contenuti e analizzare il nostro traffico. Si prega di decidere se si è disposti ad accettare i cookie dal nostro sito Web.
02 lug 2023

L’Intelligenza Artificiale va adoperata

di Luciano Caveri

Sto studiando l’Intelligenza Artificiale, che è un mondo complesso. Lo faccio per quattro ragioni: curiosità personale perché a partire da una certa età se ci si ferma di fronte alle novità si esce di scena; l’impressione che siamo ad uno scatto ulteriore che può agevolare in molti settori e il settore pubblico non può trascurare la partita; questi due punti si legano alla contingente situazione della delega che all’Innovazione che ho nel ruolo di Assessore regionale e non voglio sfinirmi solo con la digitalizzazione; infine con alcuni miei colleghi delle altre Regioni sarò a Perugia in una sessione dedicata al tema e dunque bene essere alfabetizzato. Come molti ho cominciato da quale tempo a giochicchiare con la versione gratuita di ChatGPT e ad usarlo per certe ricerche, che sono più rapide di certe analoghe incursioni nei diversi motori di ricerca, in primis Google, oggetto ormai familiare nella vita delle persone. La prima impressione ricavata è la certezza che la versione popolare della IA che si può consultare è la punta di un iceberg e che sott’acqua non oso pensare quali passi in avanti siano già stati fatti. Ricordo tantissimi anni fa il mio amico impegnato allora in aziende all’avanguardia di Finmeccanica, Fulvio Marcoz, il primo Ingegnere elettronico della Valle d’Aosta che vive e ha lavorato per tutta la vita a Roma, che mi elencava le tecnologie belliche trasferite successivamente ad uso civile e immagino che sia stato così, almeno in parte, anche in questo caso. La seconda considerazione specifica su ChatGPT, oltre alla cortesia nelle risposte e l’umiltà nella ammissione dei suoi errori non sempre rinvenibile in noi esseri umani, è che prende delle straordinarie cantonate nelle risposte alle domande che gli vengono fatte. Mentre in altri casi le risposte sono utili e ben organizzate e ovviamente nei contenuti è una specie di mix di quanto altrimenti rinvenibile sul Web, ma ciò viene proposto in modo già organizzato e soprattutto in un battibaleno. Come sulla Rete, tuttavia, se non si possiede una cultura generale solida o almeno qualche conoscenza a monte delle ricerche effettuate le cantonate se non errori marchiani c’è il rischio di prenderli sul serio, incatenando errori da errori. Sicuramente le tecnologie si perfezioneranno e al grande pubblico saranno offerti in prospettiva prodotti performanti è più lo saranno e più costeranno, perché questo è la logica di mercato. Certo siamo già ad un bivio che riguarda - solo per fare un esempio concreto - il mondo della scuola, già scosso dal problema del telefonino in mano agli studenti con le sue potenzialità che sono eversive per i proibizionisti e da sfruttare per chi capisce che non si possono avere due mondi paralleli. Ragazzi che nella vita corrente usano certe tecnologie da lasciare severamente fuori dalla scuola. Una interazione - e molti già lo fanno - è un obbligo per evitare il paradosso dei già evocati due mondi, che debbono incontrarsi. Ragionavo a questo proposito quanto scritto sul Repubblica da Stefano Quintarelli, esperto del settore con un’esperienza politica alla Camera, che è oggi a capo del Centro Studi Impara Digitale: “Si legge che ChatGPT, e più in generale i grandi modelli linguistici (Large Language Models, Llm) siano una minaccia per l’istruzione. Lo stesso si disse negli anni Settanta quando comparvero le calcolatrici, chiamate in alcuni articoli dell’epoca “macchinette intelligenti”, che eseguivano funzioni – ad esempio le radici quadrate – fino ad allora caratteristiche dell’intelligenza umana. Questa volta però la questione è qualitativamente diversa: l’Intelligenza Artificiale Generativa, di cui gli Llm sono parte, non si limita ad eseguire procedure algoritmiche predeterminate bensì mima processi cognitivi. Come accadde per le calcolatrici, gli Llm non spariranno e dobbiamo imparare a conviverci”. Concordo in pieno e prendere tempo in discussioni oziose non servirebbe a niente. Ancora l’autore:”Un primo punto da sottolineare è che “Intelligenza Artificiale” è una metafora. È Artificiale ma non intelligenza, per come noi intendiamo l’intelligenza. L’immaginario costruito dalla fantascienza e il nome “Intelligenza Artificiale” ci fuorviano. Se si chiamasse Systematic Approaches to Learning Algorithms and Machine Inferences (l’acronimo fa “Salami”) ci chiederemmo se potrà ragionare, capire e sviluppare una coscienza? La seconda cosa da sottolineare è che siamo noi ad attribuire un significato al prodotto della macchina. Un’intelligenza artificiale che diagnostica tumori non fa altro che trovare all’interno della sequenza di numeri (pixel) che compongono le immagini istologiche, le correlazioni che statisticamente sono state presenti in altre migliaia di immagini di tessuti tumorali da cui il modello statistico è stato distillato. Non possiede un concetto di tumore, di tessuto e nemmeno di immagine. Trova solo correlazioni nella lunga sequenza di numeri in cui l’immagine è srotolata. Predire rischi futuri da comportamenti super-umani per queste tecnologie è una forma di criti-hype, neologismo che indica una apparente critica il cui effetto è alimentare aspettative eccessive. Una calcolatrice fa milioni di radici quadrate in un secondo ma non la riteniamo un essere sovrumano. L’intelligenza umana è molto di più; solo se ci limitiamo a considerarci come una macchina per cose specifiche, la macchina ci sarà superiore”. Insomma chi già oggi si preoccupa di scenari apocalittici per strumenti in essere si limiti per ora alle fantasie suggestive dei film di fantascienza. Quintarelli spiega ancora: “ChatGPT giustappone parole in successione su base probabilistica a partire da un gigantesco modello statistico distillato da tutto ciò che è stato scritto fino al 2021. Non “sa” cosa sia una frase e tantomeno cosa significhi. La giustapposizione probabilistica di parole è un sistema tanto duttile quanto fallace. Lo stesso aspetto della tecnologia che le consente di essere adottabile in pressoché qualsiasi ambito la rende nel contempo soggetta ad errori”. Ma eccoci, più avanti nell’articolo, alla scuola: “Un punto di partenza necessario è l’istruzione. La Finlandia si è data l’obiettivo di spiegare i fondamenti dell’intelligenza artificiale all’uno per cento della popolazione per assicurare che ogni finlandese abbia nella propria rete sociale qualcuno che conosca le basi dell’IA. Le scuole devono necessariamente svolgere un ruolo: non è possibile infilare la testa sotto la sabbia, gli LLM esistono e saranno con noi. Farne capire ai ragazzi i limiti e come usarli correttamente è necessario. Una possibile metodologia può essere assegnare, in varie materie, ricerche da farsi usando ChatGPT o Bard (ndr: altro strumento simile di Google) e chiedere ai ragazzi di trovarne gli errori e correggerli esponendo ai compagni in aula le differenze tra il prodotto dell’IA e quello che hanno rivisto e corretto. Questo esercizio porta una comprensione di potenzialità e limiti della tecnologia in varie materie, allena l’importanza del senso critico, della curiosità e della verifica di altre fonti”. Mi sembra la strada giusta e Quintarelli annuncia come il suo centro studi abbia avviato - ed è meritorio - sperimentazioni su questo percorso nei licei.