SOMMARIO
In questo articolo si presentano le meravigliose opportunità scientifiche, tecnologiche, industriali ed applicative aperte dall’intelligenza artificiale (IA), l’analisi dei difetti e dei pericoli che potrebbero manifestarsi e la discussione di nuove norme e approcci che consentano il controllo dei pericoli senza condizionare lo sviluppo scientifico e tecnologico. Dopo una descrizione degli aspetti scientifici e tecnologici dell’IA, dei suoi clamorosi progressi, si discutono i problemi e i pericoli che la nuova tecnologia potrebbe innescare, descrivendo le norme e i provvedimenti nazionali e comunitari atti a contenerli. Infine si suggerisce un modello di sviluppo basato su un’IA aperta.
ABSTRACT
This paper has been devoted to presenting the wonderful new world of scientific, technological, industrial applications opened up by artificial intelligence (AI), to analyzing the flaws and dangers that could arise, and to discussing new standards and approaches that allow the control of dangers without affecting the development of new scientific and technological applications. After a description of the scientific and technological aspects of AI and the discussion of the problems and dangers that the new industrial revolution could trigger, the national and European laws to contain those dangers are described. Finally, a development model based on open artificial intelligence is suggested.
Keywords
Neural Networks, Generative AI, History of AI, AI Applications, AI national and EU laws, Intellectual Property, Social risks of AI, Personal Data, Big Archives, Inequalities, AI Conflicts, Unemployment, Open source.
1. INTRODUZIONE
La storia di molti interessanti capitoli scientifici dell’intelligenza artificiale (IA) iniziò nella seconda metà del secolo scorso. Si comprese subito l’importanza dei primi risultati scientifici dal punto di vista tecnologico ed industriale, ma non si immaginò il futuro al quale ora stiamo assistendo. Oggi, la disponibilità di enormi volumi di dati, la grande capacità elaborativa ed anche l’avvento di nuovi algoritmi ha aperto molteplici aree di applicazione in tutti i settori dell’attività umana. È l’esplosione di una nuova rivoluzione industriale. Tuttavia, l’avvento dell’intelligenza artificiale oltre a meravigliose applicazioni ha anche creato problemi a livello industriale e sociale. La necessità di controllare gli effetti negativi della nuova rivoluzione industriale è diventata un imperativo non più dilazionabile.
Secondo i suoi autori, questo articolo è nato con tre obiettivi distinti. Il primo obiettivo ha finalità prevalentemente didattiche. Si intende riassumere lo stato dell’arte in questo nuovo capitolo della scienza e della tecnologia, con enfasi non soltanto sulle meravigliose opportunità applicative, ma anche sui pericoli per l’intera società e i singoli cittadini che si potrebbero manifestare. Il secondo obiettivo è la proposta di una politica nazionale e comunitaria che, integrando le norme in corso di adozione (il Regolamento sull’Intelligenza Artificiale dell’UE e il Disegno di Legge “Disposizioni e delega al Governo in materia di intelligenza artificiale” proposto in Italia), favorisca il controllo pubblico per contrastare quei pericoli. Il principio centrale della nuova linea di strumenti sarà la cosiddetta “libertà” della conoscenza di nuovi prodotti e nuovi strumenti. In linea di principio, è auspicabile che di ogni prodotto e di ogni strumento sia disponibile “liberamente” una chiara documentazione tecnica e funzionale, nonché il codice sorgente dei programmi. Anche i dati utilizzati nella personalizzazione dei prodotti è auspicabile che siano allocati su un archivio aperto e disponibile per la comunità scientifica. Chi non volesse rendere pubblico il proprio codice sorgente oppure l’archivio dei dati utilizzati, dovrebbe essere svantaggiato. In effetti, le norme in corso di adozione, se opportunamente valorizzate con idonee politiche, potrebbero favorire questo risultato. Il terzo obiettivo dell’articolo sarà la proposta di un’iniziativa nazionale di ricerca che coinvolga le strutture pubbliche e gli enti di ricerca con adeguati finanziamenti, ad integrazione delle iniziative comunitarie. Oggetto del progetto nazionale di ricerca potranno essere tutti i temi attualmente discussi dalla comunità mondiale, compresi gli strumenti dell’Intelligenza Artificiale Generativa e i modelli linguistici dell’italiano.
2. STORIA
La storia antica
Ada Byron, contessa di Lovelace, giustamente nota per i contributi alla progettazione della “macchina analitica” di Charles Babbage e per la traduzione del primo articolo della storia dell’informatica presentato alla Biblioteque Universelle de Geneve dal nostro grande scienziato e patriota Luigi Federico Menabrea, può essere considerata come la prima protagonista della storia dell’intelligenza artificiale. Infatti, nella prima metà del diciannovesimo secolo, Ada ideò il primo “sistema esperto”, come viene chiamato oggi un programma automatico che produce suggerimenti per un operatore dotato di esperienza in un dato settore. Il sistema esperto ideato da Ada Byron aveva il compito di suggerire le scommesse più convenienti ai frequentatori delle corse dei cavalli. Emblematico dal punto di vista del contenuto di questo articolo appare oggi il fatto che Ada fu costretta a vendere i gioielli di famiglia per pagare i debiti di gioco.
Nel secolo successivo videro la luce i primi programmi capaci di produrre automaticamente una qualche forma di ragionamento, come il noto “Logic Theorist” di McCarthy, Newell e Simon finalizzato a dimostrare teoremi partendo dai principi della matematica o il “Geometry Theorem Prover” di Gelender, rivolto in particolare alla geometria.
Gli obiettivi del secolo scorso
Negli anni ‘50, ‘60 e ’70 del secolo scorso esplose nella comunità scientifica mondiale l’entusiasmo per la nuova disciplina che prese appunto il nome di intelligenza artificiale (Mitchell M., 2022). Ad esempio, il grande Marvin Minsky affermò solennemente: “In realtà non c’è nessuna differenza tra intelligenza artificiale e intelligenza naturale. Anche noi siamo macchine” e in un’altra circostanza sintetizzò “L’uomo è uno scalino intermedio tra la scimmia e il computer”. Nel 1957, un’altra stella di prima grandezza nel firmamento della scienza, Herbert Simon, che diventerà premio Nobel per l’economia negli anni ‘90, formulò la seguente previsione: “Entro 10 anni il calcolatore 1. dimostrerà automaticamente importanti teoremi matematici; 2. tradurrà i documenti da una lingua ad un’altra; 3. comporrà musica di classe; 4. gestirà un’azienda; 5. ispirerà la maggior parte delle teorie psicologiche; 6. batterà il campione del mondo di scacchi.”
Nel 1975 il brillante ricercatore giapponese Kunihiko Fukushima presentò la prima rete neurale artificiale. L’idea di realizzare uno strumento che emulasse il funzionamento del cervello umano risaliva al 1943. In quell’anno Warren McCulloch e Walter Pitts, due importanti studiosi americani, pubblicarono un importante articolo sul funzionamento dei neuroni e successivamente dimostrarono le loro idee con l’uso di una semplice rete neurale costruita con circuiti elettrici. Nel 1956 lo psicologo statunitense Frank Rosenblatt ideò il cosiddetto “perceptrone”, la prima macchina in grado di simulare a livello hardware e software il funzionamento dei nostri neuroni. L’obiettivo centrale dei tre studiosi americani era biologico; l’obiettivo del ricercatore giapponese era invece ingegneristico, essendo costituito dalla realizzazione di un sistema automatico capace di memorizzare, organizzare e proporre all’utente la conoscenza di un preciso dominio applicativo. È la nascita dei cosiddetti “sistemi esperti”, strumenti automatici capaci di operare le scelte di un professionista esperto in un dato settore.
Negli anni ottanta un contributo fondamentale fu dato da due psicologi computazionali della Università della California San Diego, David Rumelhart e James McClelland. che introdussero il concetto di connessionismo. Essi affermavano che la conoscenza, oltrechè nei neuroni artificiali, risiedeva nelle connessioni tra questi e che tali connessioni avevano un peso. Nasce il modello delle reti neuronali artificiali come ancora oggi adoperiamo. Le reti neuronali artificiali sono composte da una pluralità di nodi elettronici di elaborazione. Ciascun nodo, chiamato “neurone artificiale”, si connette ad altri nodi ed ha un peso e una soglia associati. Se il valore di uscita di qualunque nodo supera un valore di soglia predefinito, quel nodo viene attivato e i suoi dati di uscita sono trasmessi al nodo ricevente. In caso contrario, nessun dato viene trasmesso. Le reti neurali sono caratterizzate da un insieme di dati di addestramento che hanno lo scopo di apprendere e migliorare nel tempo le funzionalità del sistema.
Nel 1980, dopo i calcolatori elettronici delle prime quattro generazioni, caratterizzati, nell’ordine, dall’impiego di tubi elettronici, transistori, microcircuiti a bassa integrazione e microcircuiti a grande integrazione, i giapponesi sognarono i calcolatori della quinta generazione, caratterizzata da rivoluzionarie funzionalità di Intelligenza Artificiale. In risposta, gli Stati Uniti d’America generarono la Microelectronics and Computer Technology Corporation (MCC) come consorzio di ricerca finalizzato a migliorare la competitività dell’industria informatica nazionale. Il programma giapponese recitava: “…Il sistema per il trattamento delle immagini dovrà memorizzare centomila immagini diverse, reperire un’immagine dall’archivio in cento millisecondi, e in pochi secondi interpretare un’intera immagine, ossia identificare i singoli oggetti presenti e determinare le loro posizioni relative. Il sistema di interpretazione della voce dovrà riconoscere diecimila parole diverse e comprendere il significato della frase. Inoltre dovrà identificare centinaia di parlatori diversi. Il traduttore dall’inglese al giapponese dovrà essere dotato di un vocabolario di 100.000 parole e operare con una precisione del 90%.” La proposta giapponese riscosse un grande successo presso i mass media e la stessa comunità scientifica mondiale. Così quella proposta divenne il catalizzatore di molte iniziative occidentali ben più ricche di finanziamenti e ricercatori. Nella stessa Europa, di solito tarda nel recepire le innovazioni scientifiche e tecnologiche, decollarono il programma comunitario Esprit, con un finanziamento di 1,2 miliardi di dollari in cinque anni (circa dieci volte il programma giapponese della quinta generazione); alcuni programmi nazionali, come il programma Halvey inglese (450 milioni di dollari in cinque anni, quasi cinque volte il programma giapponese); un capitolo importante di un progetto finalizzato del C.N.R. italiano.
Sin dalle origini, i militari mostrarono molto interesse per gli sviluppi dell’Intelligenza Artificiale. L’interesse militare si concentrò dapprima sui problemi di classificazione automatica delle forme, per la necessità di riconoscere, ad esempio, un carro armato da un’automobile nel telerilevamento da satellite o da aereo. Per questa ragione nel 1982 nacque il progetto “Strategic Computing Initiative”. L’interesse crescerà progressivamente nel tempo, con il crescere delle aspirazioni, o dei sogni, dell’Intelligenza Artificiale per due ordini di ragioni. In primo luogo, il robot domestico è anche uno splendido guerriero: non mangia, non dorme, non pensa, non coltiva ideologie (almeno per il momento), non tradisce e può essere prodotto in serie. Otto milioni di robot prodotti in serie costano meno, tutto sommato, di otto milioni di baionette. In secondo luogo, quando i tempi di azione e di offesa diventano dell’ordine dei secondi o delle frazioni di secondo, come nelle battaglie aeree, anche i tempi di reazione, e quindi di decisione, devono divenire dello stesso ordine di grandezza. Diviene quindi una necessità tecnica sottrarre le decisioni all’uomo per affidarle al calcolatore. Forse in risposta al progetto giapponese della quinta generazione, DARPA (Defense Advanced Research Project Agency), l’ente americano che finanzia e coordina le ricerche militari più avanzate, avviò il grande progetto S.C.I. o “Strategic Computing Initiative”. Il finanziamento previsto per S.C.I. fu di un miliardo di dollari in dieci anni. Il programma era la controparte militare di quello giapponese, il libro dei sogni militari.
Le prime delusioni
Le notizie che arrivavano dal mondo della ricerca non erano entusiasmanti, almeno sino alla fine degli anni ‘80. I giocatori automatici di scacchi sconfiggevano sempre solo le segretarie che avevano imparato a giocare il giorno prima. Probabilmente per il fatto che il sistema esperto ideato da Ada per identificare i cavalli vincenti non funzionava bene, in una delle sue note Ada iniziò quello che da allora è noto come il Regime di Lovelace, asserendo che una macchina può fare solo ciò che le si ordina e nient’altro, e precisando: “La macchina matematica non ha la pretesa di creare nulla. Può analizzare, ma non ha le capacità di anticipare le connessioni o le verità analitiche. L’unica sua funzione è quella di rendere accessibili le conoscenze già acquisite”. I traduttori automatici continuavano a commettere errori leggendari, come quello della Georgetown University che a metà degli anni ‘50 aveva tradotto la frase “lo spirito è forte; la carne è debole” nei termini seguenti: “il whisky è forte; la carne è poco cotta”.
Anche le ricerche italiane non registravano i progressi sperati. Il calcolatore TOPI (Torino-Pisa), sviluppato per collaborare alla progettazione dei circuiti dei calcolatori non riscuoteva grande interesse nella comunità scientifica, non per ragioni scientifiche, ma industriali. Infatti, gli straordinari progressi della microelettronica che consentiranno di inglobare in un dato microcircuito prima milioni e poi miliardi di circuiti elementari AND, OR e NOT, resero inutili programmi molto complicati per ridurre di poche unità il numero di circuiti elementari o transistori impiegati. Le ricerche italiane nell’area del riconoscimento della voce incontrarono nuove drammatiche difficoltà al crescere del numero delle parole riconosciute e soprattutto nella transizione dal riconoscimento di parole isolate a quello di frasi. Infatti, nel linguaggio parlato le singole parole sono pronunciate una dopo l’altra, senza separazione, neanche di qualche microsecondo, tra la pronuncia di una parola e quella della parola successiva. Soprattutto, il riconoscimento della voce incontrò lo stesso tipo di difficoltà che si incontra nella traduzione automatica e che potremmo chiamare la “questione della semantica”. Infatti, nel processo di traduzione di una frase, si incontrano nell’ordine l’analisi lessicale, l’analisi sintattica e l’analisi semantica. L’analisi lessicale, consistente nell’identificare le singole parole che compongono la frase, è la più facile. L’analisi sintattica, ossia l’identificazione della struttura sintattica che sottende quella frase, è relativamente facile ma può avere più soluzioni. La terza fase, quella che consente di scegliere la soluzione corretta fra le molte che l’analisi lessicale e l’analisi sintattica suggeriscono è invece molto, molto difficile. Supponiamo di dover tradurre la frase “lei suona il piano e lui la tromba”. Due diversi alberi sintattici sottendono questa frase: nel primo albero “la tromba” è “una parte nominale”, nel secondo albero “la tromba” è “una parte verbale”. Il nostro cervello, in modo inconscio e automatico, se stiamo ascoltando un sacerdote che sta parlando della musica che accompagnerà la messa di Natale, decide che “la tromba” è una parte nominale, mentre, se stiamo ascoltando Luciana Litizzetto, decide automaticamente che “la tromba” è una parte verbale. Ma è molto, molto difficile far fare al calcolatore quell’analisi semantica che il nostro cervello fa inconsciamente, automaticamente. Nel 1986, il coautore vecchio di questo articolo fu invitato a pronunciare la relazione introduttiva al festival di Rimini di Comunione e Liberazione. In quella circostanza il tema del festival era prevalentemente scientifico, come indicato dal titolo “Bit, tamburi e messaggi”. Quella relazione partì dall’analisi di alcuni dati che dimostravano la complessità dei sistemi biologici confrontata con la complessità dei sistemi tecnologici e dei calcolatori in particolare. Ad esempio, il numero totale di atomi dell’universo può essere scritta con 88 cifre decimali, mentre il DNA di un individuo della specie animale “homo sapiens” richiede oltre due milioni di cifre decimali. Nel nostro cervello operano oltre 100 miliardi di neuroni e un milione di miliardi di sinapsi ossia di collegamenti fra neurone e neurone. Secondo i libri di testo queste sinapsi servono a trasmettere le informazioni da un neurone all’altro, ma la considerazione del loro numero induce a pensare che queste sinapsi servano anche all’elaborazione dell’informazione.
Il funzionamento dell’intelligenza di una creatura vivente è un mistero assoluto per la scienza umana. Come fanno gli uccelli migratori a non perdersi nei loro viaggi senza un GPS (“Global Position System”) oppure sono dotati di un GPS biologico? Come fa un ragnetto che non ha mai visto operare la sua mamma a tessere la sua tela sulla base delle informazioni scritte nel suo DNA? L’analisi dei dati suggerì al coautore di questo articolo la seguente prima conclusione: “Dopo alcune decine di migliaia di anni di vita su questo pianeta, dopo oltre 5000 anni di civiltà, soltanto ora l’homo sapiens comincia a scalfire la superficie più esterna di quella enorme montagna di granito che è il sapere. L’intelligenza delle creature viventi è ben nascosta nel cuore profondo di questa montagna”. Questa prima conclusione strappò un applauso a scena aperta, probabilmente per ragioni religiose. Meravigliato e entusiasmato da quell’applauso, il coautore di questo articolo solennemente affermò: “Io, noto antimilitarista, mi arruolerò nel corpo dei Marines il giorno in cui si avvererà una qualunque delle sei previsioni di Simon”.
Nel 1997 il programma Deep Blue operante su un calcolatore IBM sconfisse il campione del mondo di scacchi Garry Gasparov. Il coautore di questo articolo avrebbe dovuto arruolarsi subito nel corpo dei Marines che, probabilmente non l’avrebbero voluto perché, nei diciassette mesi di servizio militare, aveva usato un’arma poche volte, ma non lo fece con la scusa che dal giorno della previsione erano passati non dieci ma quaranta anni. In qualunque giorno del secolo scorso il coautore vecchio di questo articolo avrebbe scritto: “L’intelligenza artificiale non esiste”. Oggi, alla luce dei progressi meravigliosi del nuovo capitolo della scienza e dei fantastici prodotti nati da quel capitolo, pensa che l’intelligenza artificiale sia una stupenda manifestazione dell’intelligenza naturale di homo sapiens. Ne discutiamo nel prossimo capitolo.
3. IL NUOVO SCENARIO
Le applicazioni dell’intelligenza artificiale
Si è già ricordato che nel 1997 il calcolatore IBM, Deep Blue, sconfisse Kasparov, che era il campione mondiale degli scacchi. E da allora sempre più raramente un campione umano è riuscito a battere il calcolatore. O meglio un software “di intelligenza artificiale”. La ragione è molto semplice: il software riesce a valutare molte più possibilità di gioco. E lo fa in un tempo molto inferiore alla mente umana. Detto in altre parole riesce a elaborare moltissimi più dati in un brevissimo tempo. I giocatori umani si basano essenzialmente sull’esperienza (oltre che sull’intuito). E l’esperienza è l’insieme di informazioni, cioè dati, che, in un modo o nell’altro, abbiamo nella memoria, nella mente. Che relazione ha tutto ciò con l’intelligenza artificiale? Questa si nutre di dati. Anzi senza dati non esisterebbero di fatto le sue applicazioni roboanti. La capacità di elaborare grandi quantità di dati, molti di più di una mente umana, associata agli algoritmi propri dell’intelligenza artificiale (reti neurali, machine learning), fa sì che in moltissime applicazioni le prestazioni dell’IA siano superiori a quelle umane. In un recente studio (Kiele et al. – 2021) si afferma che l’IA supera ormai le capacità umane nel riconoscimento del linguaggio naturale e delle immagini. Ce ne accorgiamo anche noi. Oramai le interazioni con il navigatore della nostra nuova auto le facciamo a voce e molte volte capisce molto di più del nostro distratto passeggero seduto a fianco. Teniamo conto che il computer del navigatore è un computerino, meno potente dei nostri raffinati pc o dei grandi server aziendali. Per non parlare dei supercomputer.
L’IA è già oggi in moltissime applicazioni e non ce ne accorgiamo (Cucchiara R., 2021). Qualche esempio. Quando riceviamo mail, una funzione anti spam ci protegge (quasi sempre!) da mail fastidiose o pericolose. È un programma d’IA che la realizza. Quando scattiamo una foto con il nostro cellulare a una o più persone, sullo schermo del cellulare i volti sono riquadrati da un rettangolo giallo o rosso. È un algoritmo d’IA che riesce a farlo. E se ci pensate non è banale: in tutta quella miriade di pixel devo riconoscere un volto, anzi più volti diversi. Il che vuol dire che devo saper riconoscere una forma che ha due occhi, magari uno chiuso, un naso, una bocca. Che può avere o non avere capelli, la bocca chiusa o aperta, e così via. Provate a scrivere su un foglio i passi per riconoscere un volto. Impazzirete!
E che dire dei robottini per pulire casa o tagliare l’erba del prato inglese che imparano il percorso al fine di scansare gli ostacoli? Queste sono applicazioni alla portata di tutti. E poi ci sono quelle specialistiche. I robot in fabbrica fanno cose meravigliose, inimmaginabili poco tempo fa. Ci stiamo avviando verso una fabbrica senza operai. Con pochi uomini che sovraintendono e controllano dialogando a voce con i macchinari.
L’IA applicata alla medicina ha un ruolo fondamentale. Il campo nel quale si sono fatti più progressi in termini di utilizzo dell’intelligenza artificiale come supporto per i medici è forse quello diagnostico. In questo settore esistono diverse evidenze scientifiche della efficacia dell’IA, in particolare nell’area oncologica, respiratoria o cardiologica. Ma l’IA può anche predire. Analizzando i molteplici dati clinici e comportamentali della vita di un paziente è in grado di identificare possibili patologie ancora prima che queste si manifestino. E che dire della farmacologia? Non meno importante è l’uso dell’intelligenza artificiale nello screening di numerosissime molecole esistenti con lo scopo di individuare quelle più promettenti da sottoporre a sperimentazioni cliniche, riducendo in questo modo i tempi per trasferire i risultati della ricerca alla pratica clinica. Lo stesso si può dire della biologia. AlphaFold, una intelligenza artificiale sviluppata da Deepmind, ha risolto uno dei più grandi problemi della biologia: la previsione della struttura delle proteine. Oggi, l’azienda ha annunciato che sta pubblicando le strutture di più di 200 milioni di proteine. Ma l’IA può anche inventare nuove sostanze. Pensiamo per esempio alla creazione di proteine sintetiche.
Un settore in cui l’IA ha trovato grande applicazione è quello finanziario. Si pensi che se si considerano tutti i settori industriali e dei servizi, il settore che più utilizza l’IA è proprio quello finanziario e delle banche con ben il 25% del totale complessivo. Il settore finanziario gestisce grandi moli di dati. Ed è proprio per questo che l’IA è molto utile. La valutazione del rischio, la rilevazione delle frodi, la profilazione dei clienti, la previsione degli investimenti, la gestione in tempo quasi reale delle risorse finanziarie e delle borse sono solo alcuni dei settori in cui l’IA la fa da padrone. Ma tra poco gli assistenti virtuali sostituiranno gli addetti agli sportelli e i consulenti finanziari. Secondo un report di PWC, presto si vedrà la nascita di consulenti Robot. Le macchine possono fare gratis quello per cui invece gli esseri umani ricevono uno stipendio! Ma di questo parleremo più avanti.
In questa carrellata sui vari settori in cui l’IA si è diffusa ed è ampiamente impiegata non possiamo non citare quello industriale ed in particolare quello manifatturiero. Ricordiamoci che l’IA si è sviluppata principalmente nella visione artificiale. Nel riconoscimento di forme, di persone, di volti. E i robot devono innanzitutto riconoscere il contesto. La visione artificiale è oggi impiegata in una grande molteplicità di campi. Dal settore meccanico a quello logistico, dall’automazione dei magazzini industriali al settore alimentare, a quello tessile. I robot pilotati e controllati dall’IA sono elemento ormai essenziale della manifattura. Secondo gli ultimi dati dell’International Federation of Robotics, l’industria italiana è sesta – preceduta da Cina, Giappone, Corea del Sud, Stati Uniti e Germania – per stock complessivo di robot industriali installati. Inoltre, l’IA è sempre più utilizzata dalle imprese per effettuare la manutenzione preventiva e predittiva.
Elencare tutte le applicazioni dell’IA nei vari settori richiederebbe un libro a se stante. Si ricorda soltanto il settore agroalimentare con la cosiddetta agricoltura di precisione, dove dati metereologici, sensori di umidità e temperatura, fotografie da satelliti e droni vengono elaborati da algoritmi d’IA per ottimizzare la gestione dei prodotti dei campi. Siamo in Italia, dove risiede il più grande patrimonio culturale mondiale. La sua gestione e la sua fruizione sono elementi fondamentali per l’economia del paese. La transizione digitale, che vede nell’IA un elemento abilitante, dovrà fare in questo settore straordinari passi avanti. Pensate solo alla fruizione dei musei a distanza o ai musei virtuali dove l’IA con le tecnologie del metaverso permette di muoversi in spazi virtuali innovativi.
Chiudiamo questo capitolo ricordando, seppur a malavoglia, il settore militare ricchissimo di applicazioni d’IA. Pensate ai droni militari, diventati oggi una delle armi più importanti nei vari scacchieri bellici. Macchine a giuda autonoma che riconoscono il contesto, evitano gli ostacoli, individuano gli obiettivi. D’altra parte ricordiamoci che Internet affonda le sue radici nel lavoro dell’ARPA (Advanced Research Project Agency), una divisione di ricerca tecnologica del dipartimento della difesa degli Stati Uniti.
IA generativa
Fu un ricercatore americano, Ian Goodfellow, studioso di reti neurali e di deep learning, che intorno al 2017, invento le “generative adversarial networks (GAN)”, che permettevano di creare immagini sintetiche di grandissimo realismo. Si chiama IA generativa perché crea (genera), a partire da poche immagini di volti reali una varietà di volti sintetici di incredibile realismo, tali da renderli indistinguibili dalla realtà. La possibilità di creare immagini sintetiche, non solo di volti, di ineguagliabile realismo ha oggi molteplici applicazioni dalla moda all’arte. Tuttavia l’uso malevolo di tale possibilità ha prodotto il deleterio fenomeno dei “deepfake” generando disinformazione e falsità con la produzione sintetica di video realistici. Sebbene nata per le immagini, l’IA generativa si è subito estesa a tanti altri contesti. La generazione di testi, audio, video, musica. Nascono i “chatbot” (da chattare e robot). Un chatbot è un software di IA che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale. Tra i vari chatbot il più comune e diffuso è ChatGPT. La sigla GPT sta per “Generative Pre-trained Transformer”, ovvero “trasformatore generativo pre-addestrato”. ChatGPT, sviluppato dalla start up OpenAI, permette di dialogare con gli esseri umani sulla basa del linguaggio naturale e fornisce risposte su pressochè qualsiasi argomento. Come tutte le reti neurali deve essere addestrato. E lo è stato fornendo miliardi di testi. Poi opera autonomamente con tecniche sofisticate di machine learning. E’ utile in moltissimi contesti, per la creazione di report, di articoli, in generale di contenuti, nella traduzione automatica, in applicazioni di analisi dei sentimenti, nella classificazione di testi. Si pensi che in un tribunale di un paese dell’America Latina la sentenza è stata scritta da GPT!
IA e i dati
Le reti neurali artificiali come quelle naturali imparano e si evolvono sulla base del contesto esterno e dell’esperienza. Come i nostri piccoli bambini che si nutrono delle informazioni nel contesto in cui vivono per sviluppare la loro mente. E poi da queste creano nuovi ragionamenti. Non solo, ma come dicono gli psicologi infantili, quante più informazioni riceve un bambino tanto più il suo cervello impara. Così le reti neurali artificiali si nutrono di dati digitali, che sono di fatto il loro contesto esistenziale. I dati li trovano negli archivi aziendali, negli archivi della pubblica amministrazione, nei nostri archivi personali che spesso, consapevolmente o inconsapevolmente, rendiamo pubblici. Ma anche e soprattutto in Internet. Ogni giorno si collegano a Internet 4.5 miliardi di persone. Ogni giorno vengono scambiati 250 miliardi di mail. Ogni giorno vengono postate su Facebook 400 milioni di fotografie. L’informazione digitale scambiata ogni giorno è valutata pari a 300.000 Petabyte, cioè 300 miliardi di miliardi di caratteri. È come se ogni uomo esistente sulla terra scrivesse in un giorno cinque copie del capolavoro di Tolstoj, Guerra e Pace. Un testo di circa 1700 pagine! Una quantità allucinante di dati.
Le reti neurali adoperano i dati in due momenti della loro esistenza. Inizialmente, quando si sviluppano, per creare una base di conoscenza da cui partire. E questo lo può fare solo l’uomo. Questa fase si chiama di “training”, di apprendimento (o di calibrazione, per essere più precisi: il sistema non è una persona e quindi non impara). Se voi volete che il software d’IA di un’auto autonoma non investa cani, dovete inizialmente mostrare un po’ di foto e/o video di cani affinché eviti di metterli sotto. È il “machine learning”, la macchina che impara (o, più correttamente, viene calibrata). Finita questa fase, la rete neurale artificiale inizia ad operare. Attenzione, questa fase di training è fondamentale. La polarizzazione di una rete neurale, cioè il non venir correttamente addestrata/calibrata per gli scopi che vogliamo, non è solo un problema tecnico. E’ un problema dai significativi risvolti giuridici ed etici. ChatGPT è così efficiente perché è stata istruita/calibrata con miliardi di dati.
Il secondo momento in cui le reti neurali si nutrono di dati è nella fase adulta, quella in cui sono indipendenti, autonome e svolgono le funzioni per cui sono state progettate. In questa fase quanti più dati ricevono, tanto più imparano e tanto più diventano efficienti. In relazione all’esempio precedente, tutti i dati che vengono forniti alla rete neurale artificiale servono non solo a riconoscere cani ma anche ad affinare il processo di riconoscimento, ad incrementare le sue prestazioni. Adoperando, un po’ impropriamente, un termine che si attribuisce alle capacità umane, la rete neurale continua ad “apprendere” (machine learning). E così imparerà a riconoscere le razze dei cani.
4. DEBOLEZZE E PERICOLI
L’aumento delle diseguaglianze e dei conflitti
Sulla base delle informazioni che abbiamo sintetizzato nel capitolo precedente possiamo affermare che stiamo assistendo ad una nuova rivoluzione industriale, economica e sociale, con implicazioni forse imprevedibili sul futuro dell’umanità (Cristianini N., 2023). L’analisi di alcuni dati importanti ci induce al timore che la nuova rivoluzione possa produrre un ulteriore aumento delle attuali clamorose diseguaglianze. Pensiamo alle diseguaglianze di ricchezza e potere dei paesi avanzati e di quelli arretrati, e alle diseguaglianze di reddito e condizioni di vita dei cittadini ricchi e di quelli poveri in tutti i paesi del mondo. Ovviamente queste diseguaglianze potrebbero innescare conflitti tra i diversi strati sociali di un paese e soprattutto spaventose guerre tra le nazioni. Su questo tema si è mosso anche Papa Francesco che non si è fatto abbagliare dalle luminose meraviglie scientifiche, tecnologiche e industriali dell’IA. Era ovvio che ciò accadesse. Il Papa ha sempre pensato che il progresso scientifico, tecnologico e industriale non rappresenti sempre un progresso dell’umanità. Ritiene testualmente: “Basti pensare alle tecnologie “mirabili” che hanno utilizzato per decimare popolazioni, lanciare bombe atomiche, annientare gruppi etnici. Vi sono stati momenti della storia in cui l’ammirazione per il progresso non ci ha permesso di vedere l’orrore dei suoi effetti.” “Non è strano che un potere così grande in simili mani sia capace di distruggere la vita, mentre la matrice di pensiero del paradigma tecnocratico ci acceca e non ci permette di vedere questo gravissimo problema dell’umanità di oggi” (da “Esortazione Apostolica Laudate Deum del 4 Ottobre 2023). Al fine di riflettere sul tema, il Papa proponeva per la 57-esima Giornata della Pace, celebrata il primo Gennaio 2024, il titolo “Intelligenza Artificiale e Pace”. Ha spiegato con una sua nota il Dicastero Vaticano: “I notevoli progressi compiuti nel campo delle Intelligenze Artificiali hanno un impatto sempre più profondo sulla attività umana, sulla vita personale e sociale, sulla politica e l’economia. Papa Francesco sollecita un dialogo aperto sul significato di queste nuove tecnologie, dotate di potenzialità dirompenti e di effetti ambivalenti. Egli richiama la necessità di vigilare e di operare affinché non attecchisca una logica di violenza e di discriminazione nel produrre e nell’usare tali dispositivi, a spese dei più fragili e degli esclusi.”
Mentre il tema delle disuguaglianze economiche sarà al centro del dibattito nella Giornata della Pace, per la prossima Giornata Mondiale delle Comunicazioni Sociali, che si è tenuta ad aprile 2024, il Papa ha proposto il tema: “Intelligenza Artificiale e Sapienza del Cuore per una Comunicazione pienamente umana”. Secondo il Dicastero Vaticano “L’evoluzione dei sistemi di Intelligenza Artificiale rende sempre più naturale comunicare attraverso e con le macchine, in modo da rendere sempre più difficile distinguere il calcolo dal pensiero, il linguaggio prodotto da una macchina da quello generato dagli esseri umani. Come tutte le rivoluzioni anche quella dell’Intelligenza Artificiale pone nuove sfide affinché le macchine non contribuiscano a diffondere un sistema di disinformazione a larga scala e non aumentino anche la solitudine di chi già è solo, privandoci di quel calore che solo la comunicazione tra persone può dare. E’ importante guidare l’Intelligenza Artificiale e gli algoritmi, perché vi sia in ognuno una consapevolezza responsabile nell’uso e nello sviluppo di queste forme differenti di comunicazione che si vanno ad affiancare a quelli dei social media e di Internet. E’ necessario che la comunicazione sia orientata ad una vita più piena della persona umana”.
Le implicazioni sul lavoro
Le recenti battaglie di Hollywood tra gli sceneggiatori e i robot che minacciano il loro lavoro avrebbero dovuto essere un campanello di allarme per milioni di lavoratori europei. Chi proteggerà i nostri diritti dagli algoritmi che sempre più si comportano come i nostri capi?” scrive Francesca Bria su La Stampa. Così come l’automazione ha tolto il posto di lavoro a molti operai, per lo stesso meccanismo l’Intelligenza Artificiale potrebbe togliere il posto a molti impiegati. Secondo una recente ricerca, nell’arco dei prossimi 10 anni, 75 milioni di impiegati, pari al 3% dell’attuale forza lavoro, dovrà cambiare occupazione e non si esclude che questi numeri possano diventare 5 volte più grandi. Anche se per altri studiosi tali previsioni sono troppo pessimistiche, come si è verificato nella storia all’introduzione di nuove tecnologie, quali l’elettricità o il motore endotermico (a scoppio). Il problema più rilevante è la necessità di creare nuove competenze: non può essere lasciato solo a dinamiche di mercato, ma deve essere accompagnato da politiche sociali e scolastiche.
Riprendendo il tema del rapporto tra le tecnologie digitali e i lavori, è opportuno considerare che le tecnologie del passato, meccanica ed elettrica, hanno sostanzialmente impattato sui lavori manuali. Le macchine hanno sostituito i muscoli umani in modo più efficiente. Le tecnologie digitali ed in particolare l’IA, tendono a sostituire anche i lavori intellettuali. Non più i muscoli ma il cervello. Cioè la cosa più importante degli esseri viventi. Scrittori, avvocati, analisti, programmatori di software, giornalisti sono in pericolo? Il tema che affronteremo più avanti è che la rapida diffusione dell’IA mette alla prova i presupposti su cui si basano gli attuali diritti dei lavoratori.
Ma l’IA farà realmente diminuire i posti di lavoro? Le opinioni sono contrastanti e a volte basate su approcci emozionali: il futuro e i cambiamenti in generale fanno paura perché generano incertezza! Il World Economic Forum prevede per il periodo 2023 – 25 la perdita di 83 milioni di posti di lavoro contro un guadagno di 65 milioni. Ma mentre i posti persi sono a bassa manualità e a scarsa specializzazione, gli altri richiederanno alte capacità professionali. Per altro in un convegno di industriali, il CEO di una importante azienda del settore informatico prevede che nei prossimi 5 anni i nuovi lavori legati all’uso d’IA saranno in America 98 milioni, a fronte di una perdita di 50 milioni di lavori tradizionali. È un dato obiettivo che il lavoro manuale e intellettuale è fortemente influenzato dalle tecnologie digitali. Ma lo stesso è avvenuto nel passato, nelle grandi rivoluzioni industriali con l’introduzione di nuove, “disruptive” tecnologie. Si pensi alla seconda rivoluzione industriale di fine ‘800, inizio ‘900. Quando grandi masse di lavoratori si spostarono dall’agricoltura all’industria. E più vicino a noi, l’introduzione della automazione nelle fabbriche con la sostituzione del lavoro manuale ripetitivo degli operai mediante robot. Che ha ridotto drasticamente il numero di operai sulle linee di produzione con cambiamenti sociali e urbani tutt’altro che indifferenti. Diceva Charles Darwin che le specie che non si adattano al cambiamento dell’ambiente sono destinate a scomparire. Affermazione un po’ forte ma che mette in luce il vero problema attuale: le competenze. Meglio la formazione e creazione di competenze idonee ai nuovi lavori e alle nuove professioni. Ma questo tema, centrale nella gestione delle transizioni tecnologiche, esula da questo articolo.
Due a nostro parere sono i temi centrali. La gestione delle nuove competenze sia a livello della scuola media, superiore, università. E non parliamo solo di formazione tecnologica, ma per tutte le professioni la capacità di innovare processi e prodotti sulla base dell’uso delle nuove tecnologie digitali. Ma anche a livello di lavoratori più maturi. Long life learning. Strada difficile ma obbligatoria dal punto di vista sociale ed etico. Altrimenti si creeranno grandi aree di esclusione dal lavoro e conseguentemente di povertà. Il secondo tema, forse più rilevante, è garantire che la trasformazione dell’IA garantisca i principi democratici, i diritti dei lavoratori. Questo passa anche attraverso la necessità che gli algoritmi siano trasparenti, che vi sia una corretta gestione dei dati, che la politica possa avere il predominio sulla tecnologia. Oggi invece i grandi monopoli tecnologici privati, le cosiddette Big Tech, governano a loro piacimento algoritmi, dati, applicazioni. Quelli che stanno sempre più governando.
Contenuti misteriosi
Di moltissimi prodotti attuali dell’Intelligenza Artificiale si ignorano completamente gli algoritmi adottati e i dati utilizzati nei modelli. Forse è l’interesse commerciale dei loro produttori a generare questa mancanza di trasparenza, che determina anche l’erosione dello stato di diritto e la violazione dei diritti individuali. Inoltre è stato dimostrato che spesso i modelli adottati e i dati utilizzati riflettono pregiudizi razziali o maschilisti. Ad esempio, è stato notato che un noto programma preposto al compito delle assunzioni favoriva i candidati di sesso maschile. Un programma per il riconoscimento facciale sbagliava quasi mai con gli uomini dalla pelle chiara e non riconosceva più di un terzo delle donne dalla pelle scura. Inoltre è stato dimostrato che qualche volta i prodotti dell’Intelligenza Artificiale generano volontariamente disinformazione. Ad esempio, un discorso video di un primo ministro è stato manomesso per fargli dire cose molto diverse da quelle che aveva pronunciato. Il noto strumento linguistico GPT-3 ha prodotto alcuni tweet finalizzati ad affermare che la temperatura della terra non sta cambiando con l’effetto di alimentare lo scetticismo nei confronti della politica ambientale.
Danno ambientale
I sistemi di Intelligenza Artificiale spesso adottano algoritmi molto complessi e sono basati su archivi di enormi dimensioni. Quindi la loro creazione ed anche la loro utilizzazione sul campo richiedono lunghi tempi di elaborazione su sistemi di calcolo molto complessi, con grandi consumi di energia e grave inquinamento ambientale.
L’estinzione dell’umanità?
Molti autorevoli personaggi di scienza, tecnologia e del mondo industriale vedono nell’Intelligenza Artificiale un pericolo gravissimo per l’intera umanità e propongono norme severe per disciplinarne lo sviluppo. Si dovrà poter verificare che il comportamento dei prodotti dell’Intelligenza Artificiale sia comprensibile e trasparente. Inoltre dovrà essere possibile controllare che il progresso dell’Intelligenza Artificiale rimanga allineato con “i valori e gli obiettivi umani”. Alcuni degli autorevoli studiosi dei progressi dell’Intelligenza Artificiale temono addirittura che questi progressi possano produrre la scomparsa dell’umanità. A determinare l’estinzione dell’umanità potrebbe essere una “singolarità”, concetto che le scienze sociali derivano dalla matematica. Una singolarità è un momento dello sviluppo in cui il progresso tecnologico accelera e oltrepassa i limiti della capacità umana di comprensione e previsione. La singolarità si manifesterebbe nel momento in cui l’Intelligenza Artificiale offrirà la soluzione e gli strumenti per amplificare se stessa, superando nettamente i limiti dell’intelligenza di homo sapiens.
Gli autori di questo articolo pensano che i progressi scientifici e tecnologici che chiamiamo “Intelligenza Artificiale” siano manifestazioni dell’intelligenza naturale e, almeno ad oggi, appare molto lontano il giorno in cui i sistemi d’intelligenza artificiale siano anche coscienti di sé. Quindi, al momento, invece di preoccuparci di scenari altamente improbabili e comunque molto lontani nel tempo, è utile preoccuparci dei problemi che l’intelligenza artificiale pone nell’immediato futuro. Come già accennato nel precedente Capitolo 3, gli autori di questo articolo temono un’altra manifestazione di homo sapiens, ossia l’eccessiva concentrazione di potere che si potrebbe determinare se il controllo delle nuove tecnologie d’intelligenza artificiale fosse affidato nelle mani delle grandi aziende tecnologiche come Google, Microsoft, Apple, Facebook, Amazon e le loro sorelle rivali cinesi. Negli ultimi dieci anni queste aziende hanno investito decine di miliardi di dollari per acquistare decine di imprese più piccole operanti in vari comparti dell’Intelligenza Artificiale. Sta nascendo un nuovo pernicioso colonialismo e l’Italia è uno dei paesi colonizzati.
Negli ultimi due anni è emersa l’importanza degli strumenti e dei metodi dell’IA anche per le applicazioni militari. Le applicazioni militari richiedono enormi volumi di dati che soltanto gli strumenti dell’IA. riescono a trattare. Ad esempio, le immagini di un territorio potrebbero riguardare aree di migliaia di chilometri quadrati rappresentate con la risoluzione di un decimetro. La precisione dei dati territoriali è molto importante per tutte le applicazioni militari. Si pensi, ad esempio, alla guida di un aereo o di un drone, oppure all’apparato di puntamento di un cannone o di un missile. Molto complessi ed interessanti sono anche gli algoritmi dell’IA per l’elaborazione delle immagini, ad esempio, per l’identificazione di un autocarro o di un carro armato. I meravigliosi progressi dell’IA consentono di risolvere molti problemi, ma non tutti. Un sistema di riconoscimento automatico deve forse essere sostituito da un uomo nel riconoscimento di un soldato nemico oppure di un operatore umanitario.
5. DIRITTO E POLITICA DELL’IA: UN FUTURO APERTO
Sistemi d’IA, licenze libere e ricerca scientifica: da dove veniamo e dove siamo
Non è detto che l’infausto scenario ipotizzato al termine del precedente capitolo sia inevitabile. La cultura giuridica europea e gli atti normativi che s’iniziano ad adottare dandole forma, inducono a riflettere: forse è finito il tempo in cui le tecnologie digitali erano disegnate solo dagli operatori di mercato e sta iniziando una stagione diversa. Dopo decenni in cui non si è riusciti ad anticipare i rischi posti dalle tecnologie digitali, si osserva un cambio di passo. Molti atti normativi attribuiscono nuovi diritti ai cittadini ed attribuiscono nuovi obblighi agli operatori del settore. Si pensa per esempio al Regolamento sui Servizi Digitali, al Regolamento sui Mercati Digitali, alla Normativa sui Dati, al Regolamento sulla Governance dei Dati e, da ultimo al Regolamento sull’Intelligenza Artificiale. L’insieme di questi (ed altri) atti normativi, risponde a una politica normativa focalizzata sulla tutela dei diritti fondamentali, tra l’altro riconosciuti dalla Carta dei diritti fondamentali dell’Unione europea che, da quando nel 2009 è entrato in vigore il Trattato di Lisbona, è vincolante nell’UE. Questi diversi atti normativi potrebbero contenere i rischi posti dalle tecnologie digitali e dall’IA, per lo meno in una qualche misura. Per esempio, il Regolamento sui Servizi Digitali obbliga i fornitori di piattaforme e motori di ricerca online molto grandi a prevenire i rischi sistemici che i loro servizi possono catalizzare, come la diffusione di contenuti illegali o con effetto negativo su diritti fondamentali, processi elettorali, violenza di genere, salute mentale.
Il nuovo Regolamento sull’Intelligenza Artificiale è disegnato con logica “antropocentrica” ed ha l’obiettivo dichiarato di tutelare i diritti fondamentali delle persone. Innanzitutto, vieta quegli usi dei sistemi d’intelligenza artificiale (per esempio, certi usi subliminali o volutamente manipolativi o ingannevoli, o certi usi di riconoscimento facciale) che, nel processo di elaborazione dell’atto normativo, sono apparsi più chiaramente rischiosi, e quindi inaccettabili. Poi, l’atto prescrive obblighi di trasparenza per i sistemi destinati a interagire direttamente con le persone fisiche: si avrà il diritto di sapere che si sta interagendo con un sistema d’IA e che un certo contenuto è prodotto da un sistema d’IA. Per i sistemi ad alto rischio sono previsti obblighi di valutazione della conformità e di contenimento del rischio e/o di valutazione d’impatto sui diritti fondamentali. Si prevedono obblighi anche più stringenti, per chi gestisce sistemi d’intelligenza artificiale per finalità generali (come GPT o Gemini) che possono produrre rischi sistemici, e cioè «effetti negativi sulla salute pubblica, sulla sicurezza pubblica, sui diritti fondamentali o sulla società nel suo complesso». In effetti, l’introduzione di obblighi speciali per chi gestisce sistemi d’intelligenza artificiale per finalità generali che possono produrre rischi sistemici (e la stessa nozione di rischi sistemici) nel Regolamento sull’Intelligenza Artificiale è stata una sorpresa dell’ultimo momento: fino alla penultima versione dell’atto l’espressione “rischio sistemico” non era presente nell’atto. Certo, per un tema così delicato sarebbe stato auspicabile un più approfondito dibattito pubblico. Per esempio, ci si potrebbe domandare se il rischio sistemico discenda dal fatto in sé che esista una certa tecnologia o dal fatto che quella certa tecnologia sia nella disponibilità di pochi soggetti e difficilmente comprensibile da parte della comunità scientifica (e quindi del grande pubblico). Ma non mancheranno le occasioni per riflettere su questo ora che, almeno, il tema è sul tavolo perché il Regolamento sull’Intelligenza Artificiale è stato approvato nella sua versione finale e dispone in merito. D’altronde, è importante non prestare fiducia assoluta sulla capacità dell’atto normativo di contenere ed escludere qualsiasi rischio. Da una parte, il Regolamento sull’Intelligenza Artificiale esclude dal suo campo d’applicazione le materie della sicurezza nazionale e della difesa, dall’altra parte, è oggetto di dibattito pubblico la circostanza che alcuni grandi fornitori di servizi digitali da anni adottano strategie imprenditoriali di non certa liceità per estrarre valore dai dati delle persone.
D’altro canto, il Regolamento sull’Intelligenza Artificiale prevede condizioni di favore per lo svolgimento di attività di ricerca scientifica e per lo sviluppo e la distribuzione di sistemi d’intelligenza artificiali con licenze di software libero e/o open source. Per apprezzare l’importanza di questo aspetto (che sembra un dettaglio, ma non lo è) vale la pena riflettere su come negli anni passati, ed ancora oggi, sono distribuiti i sistemi d’intelligenza artificiale (vedi Ciurcina, M., 2023). Come si è descritto sopra (capitoli 2 e 3), per molti anni, lo sviluppo dei sistemi d’IA è stato il frutto, in misura importante, di progetti di ricerca finanziati con denaro pubblico, ed i risultati di quei progetti quasi sempre erano a disposizione della comunità scientifica. Anche quando le imprese hanno iniziato ad interessarsi d’intelligenza artificiale, hanno prestato molta attenzione a restare “interessanti” per la comunità scientifica. Quindi, molti risultati dell’attività di sviluppo realizzati in ambito industriale venivano messi a disposizione del pubblico con licenze di software libero (o open source) e cioè secondo i termini di licenze che consentono all’utente di accedere al codice sorgente e di usare il programma, studiarlo, modificarlo e distribuirlo.
Negli ultimi mesi sono diventati molto famosi i sistemi d’IA generativi, cioè capaci di realizzare testi o immagini partendo dalle richieste dell’utente. Questi sistemi sono stati prodotti utilizzando grandissime quantità di dati e capacità di calcolo e, effettivamente, sono messi a disposizione da un piccolo numero di aziende. È quindi giusto domandarsi: si stanno creando le condizioni perché solo poche aziende nel mondo possano realizzare e rendere disponibili al pubblico i sistemi d’IA generativi (concentrando anche, incidentalmente, un enorme potere)? Se è vero che le aziende che rendono disponibili i sistemi d’IA generativi sono poche, è importante considerare che un buon numero di quelle ha distribuito e continua a distribuire sistemi d’IA generativi con licenza libera. Per esempio, OpenAI, l’azienda che ha sviluppato GPT, il sistema d’IA utilizzato per il famoso servizio ChatGPT, era disponibile con licenza libera fino alla versione 2; poi, ha cambiato strategia ed ora le nuove versioni di GPT sono disponibili con licenza proprietaria. Meta ha distribuito il suo Llama secondo i termini di una licenza “quasi” libera (che però prevede alcune limitazioni d’uso). Il Technology Innovation Institute ha distribuito il Llm Falcon 40B con licenza libera, e (successivamente) il più potente Llm Falcon 180B con una licenza “quasi” libera (che prevede alcune limitazioni d’uso).
Lo stesso succede anche per altri sistemi d’IA generativi: sono distribuiti con licenze libere (o quasi). Insomma, la distribuzione con licenza libera del sistema d’IA continua ad essere interessante per le aziende del settore: scegliere una licenza più o meno libera aiuta a rendere un progetto conosciuto nella comunità scientifica e tra gli utilizzatori (e ad incrementare la fiducia nel progetto) e questo effetto è ritenuto importante dalle aziende. Tra l’altro, è stata recentemente annunciata la costituzione della AI Alliance, alla quale partecipano importanti industrie tecnologiche (per esempio, IBM, Intel, Dell Technologies, Oracle, Hugging Face, Sony Group e Meta), organizzazioni no profit e università, che ha lo scopo di favorire l’innovazione aperta nel settore dell’IA.
Gli incentivi normativi per l’IA aperta
È importante considerare che in Europa le norme favoriscono lo sviluppo di sistemi d’intelligenza artificiale che possano essere studiati, compresi, riprodotti e verificati, in particolare dalla comunità scientifica. Innanzitutto, è favorita la ricerca scientifica sui sistemi d’IA. Per esempio, il diritto d’autore è stato recentemente modificato nell’UE: oggi un organismo di ricerca può svolgere attività di ricerca estraendo dati e testi da banche di dati e opere tutelate dal diritto d’autore (alle quali si abbia lecitamente accesso) al fine di addestrare/calibrare un sistema d’IA. Un altro quadro normativo molto importante da considerare è il diritto sui dati personali. Si possono usare i dati personali per addestrare/calibrare un sistema d’IA? La risposta semplice è “sì, rispettando le norme a tutela dei dati personali (GDPR, ecc.)”; ma (è importante tenerlo in conto) il GDPR prevede importanti semplificazioni per chi tratta dati personali per finalità di ricerca scientifica. Ancora, come evidenziato sopra, il Regolamento sull’Intelligenza Artificiale dell’UE se, da una parte, pone limiti allo sviluppo e all’uso dei sistemi d’IA, dall’altra, prevede eccezioni e semplificazioni per la ricerca scientifica e per i sistemi d’IA disponibili con licenza libera e open source. Non bisogna poi dimenticare che chi utilizza dei sistemi d’IA non per questo può astenersi dal rispettare le norme che si applicano alle attività nelle quali li utilizza.
Così, per esempio, se le pubbliche amministrazioni utilizzano dei sistemi d’IA per adottare dei provvedimenti, devono comunque rispettare gli obblighi di motivare adeguatamente le proprie decisioni e rendere disponibile il codice sorgente che utilizzano per prendere le stesse decisioni (per lo meno, questo dicono alcune sentenze dei giudici amministrativi Italiani). Ancora, ai sensi del GDPR, chiunque sia soggetto ad un processo decisionale automatizzato ha diritto di conoscere la logica del sistema utilizzato ed ha il diritto di ottenere l’intervento umano, di esprimere la propria opinione e di contestare la decisione. Ancora, il Regolamento sulla Governance dei Dati favorisce l’altruismo dei dati, e cioè la condivisione volontaria di dati, e la messa a disposizione di dati da parte delle PA, per finalità di ricerca scientifica. È poi interessante la Normativa sui Dati che include norme che permettono agli utenti di dispositivi connessi di accedere ai dati generati da tali dispositivi e dai servizi a essi collegati e di condividerli con terzi (per esempio, con chi li usi per finalità di altruismo dei dati). In parole semplici, a breve avremo il diritto di pretendere i nostri dati da chi ci fornisce i dispositivi e di condividerli con organizzazioni che svolgono attività di ricerca scientifica. Potrebbero quindi darsi le condizioni perché cittadini e PA mettano i propri dati a disposizione delle comunità scientifiche per realizzare sistemi d’IA a disposizione di tutti con licenza libera.
In sintesi, ci sono forti incentivi normativi che favoriscono lo sviluppo di sistemi d’IA aperti: sistemi che possono essere studiati, compresi, riprodotti e verificati, in particolare dalla comunità scientifica.
Le licenze libere non bastano
Ma se si ha a cuore che il sistema d’IA possa essere studiato, compreso, riprodotto e verificato, la disponibilità con licenza libera del sistema (e degli strumenti utilizzati per il suo sviluppo) non è sufficiente: è anche importante che siano liberamente disponibili le informazioni utili per realizzarli, comprese le basi di dati utilizzati per la calibrazione/addestramento. La questione è delicata: un’azienda che realizza degli investimenti ha il dovere di produrre profitto, e quindi non è ragionevole attendersi che le aziende abbiano “solo” l’obiettivo di massimizzare il vantaggio della comunità scientifica. Per questo si osservano comportamenti più o meno “reticenti”: una volta si usano licenze “quasi” libere, un’altra si rendono disponibili alcune informazioni, ma non tutte quelle che un ricercatore potrebbe desiderare per studiare, comprendere, riprodurre e verificare il sistema d’IA. Ma sistemi d’IA disponibili con licenze libere e che si possono comprendere e verificare sono importanti: riducono il rischio che i sistemi d’IA siano utilizzati per produrre effetti non desiderabili e riducono il rischio che si determinino condizioni di oligopolio nella fornitura degli stessi sistemi d’IA. Inoltre, favoriscono la ricerca scientifica e quindi il continuo miglioramento e la comprensione degli stessi sistemi. Insomma, favorire lo sviluppo di sistemi d’IA aperti e che si possono comprendere e verificare aiuterebbe a realizzare il bene comune.
Licenze libere e cos’altro?
Ma quando un sistema d’IA è sufficientemente aperto da consentire di comprenderne e verificarne il funzionamento? Sul tema il dibattito è aperto e si confrontano idee diverse (che in parte rispondono a punti di vista ed interessi diversi). È quindi interessante osservare il dibattito in corso nel quadro dell’OSI, l’organizzazione che negli anni ‘90 elaborò la definizione di open source. Da ormai più d’un anno l’organizzazione sta lavorando all’elaborazione di una definizione di “Open Source AI”. L’ultima versione prevede che “Un’Open Source AI è un sistema di IA reso disponibile secondo termini che garantiscono la libertà di:
- Utilizzare il sistema per qualsiasi scopo e senza dover chiedere il permesso.
- Studiare il funzionamento del sistema e ispezionare i suoi componenti.
- Modificare il sistema per qualsiasi scopo, anche per cambiare il suo output.
- Condividere il sistema affinché altri lo utilizzino con o senza modifiche, per qualsiasi scopo.
Queste libertà si applicano sia a un sistema completamente funzionale sia a elementi discreti di un sistema. Un prerequisito per esercitare queste libertà è avere accesso alla forma preferita per apportare modifiche al sistema.”.
Un punto sul quale si è avuto intenso dibattito è se si possa definire “Open Source AI” un sistema del quale non siano disponibili i dati utilizzati per la calibrazione del sistema: la versione attualmente disponibile della definizione non richiede necessariamente che si rendano disponibili i dati, permettendo che siano rese disponibili informazioni sufficientemente dettagliate sugli stessi; anche se (ne va dato atto) alcuni ritengono che senza accesso ai dati di calibrazione non si possa massimizzare la possibilità di comprendere e studiare un sistema d’IA. Intanto, la Free Software Foundation ha annunciato che sta lavorando a una dichiarazione di criteri per le applicazioni libere di apprendimento automatico che pone attenzione al requisito della disponibilità dei dati di calibrazione. Saranno gli eventi a dirci se si affermeranno pratiche di distribuzione di sistemi d’IA che includono anche i dati di calibrazione (come succede in alcuni progetti più vicini alla comunità scientifica, come per esempio il progetto Bloom).
In ogni caso, favorire sistemi d’IA aperti non significa danneggiare l’industria del settore: al contrario, in questo modo può incentivare lo sviluppo di un’industria più moderna e innovativa. È già successo nei decenni passati con il software libero: le aziende hanno imparato a realizzare profitto sviluppando, usando e distribuendo software libero; perché non favorire un risultato simile anche per i sistemi d’IA? Quindi, viene spontaneo domandarsi, cosa si potrebbe fare per incentivare pratiche di sviluppo e distribuzione di sistemi d’IA aperti, che si possono usare, studiare, comprendere, riprodurre e verificare? Volendo provare a rispondere oggi, è spontaneo ipotizzare che sarebbe utile rendere disponibile ai ricercatori quel che gli manca per sviluppare sistemi d’IA generativi: grandi capacità di calcolo e dati. Per rendere disponibile la capacità di calcolo è necessario investire risorse: speriamo che si torni ad investire denaro pubblico nella ricerca mettendo a disposizione della comunità scientifica le risorse di calcolo necessarie per realizzare sistemi d’IA aperti, che si possono usare, studiare, comprendere, riprodurre e verificare. Oltre a capacità di calcolo, per realizzare sistemi d’IA generativi servono grandi quantità di dati. Ma, si potrebbe obiettare, grandi quantità di dati sono nelle mani di poche aziende. È vero ma non è vero: molti dati sono liberamente disponibili o sono nelle mani delle PA e, come visto sopra, ci sono interessanti incentivi normativi che, se opportunamente valorizzati, possono essere molto utili per rendere disponibili alla comunità scientifica i dati di cui ha bisogno.
6. CONCLUSIONI, PROPOSTE
Lo stato dell’arte italiana nel settore dell’IA appare arretrato rispetto allo stato dell’arte dell’Unione Europea e quest’ultimo appare arretrato rispetto allo stato dell’arte statunitense. Per questa ragione ci permettiamo di avanzare alcuni suggerimenti agli organi di governo del nostro Paese e in particolare ai colleghi che operano nel Comitato di Coordinamento delle Strategie per l’I.A. istituito presso il Dipartimento per la Trasformazione Digitale. I primi suggerimenti riguardano le regole della normativa, che ci paiono in linea con il Regolamento sull’Intelligenza Artificiale e con la visione descritta nella Comunicazione “AI@EC”. In linea di principio si raccomanda di adottare politiche che favoriscano la realizzazione di prodotti, e strumenti per lo sviluppo di prodotti, che siano caratterizzati da una chiara documentazione tecnica e funzionale e dal codice sorgente dei programmi. Anche i dati utilizzati nella personalizzazione dei prodotti dovrebbero essere allocati su un archivio aperto e disponibili per i ricercatori, a condizione che s’impegnino a rilasciare con licenza libera i risultati del loro lavoro di ricerca (fermo il rispetto dei diritti di privacy delle persone). In questa prima fase di attività si potrà utilizzare qualunque macchina ospite, ma presto, come solennemente annunciato dalla Presidente Von Der Leyen nel novembre dello scorso 2023, sarà disponibile una rete comunitaria libera di supercomputer, sulla quale saranno archiviati i dati pubblici utilizzati dalle applicazioni dell’IA (“Large AI Grand Challenge”). Il soggetto che in nome della proprietà intellettuale non volesse rendere pubblico il proprio codice sorgente oppure l’archivio dei dati utilizzati, dovrebbe essere svantaggiato. Il provvedimento annunciato dalla Presidente Von Der Leyen prevede anche l’attivazione di attività di ricerca che saranno svolte da piccole imprese o “start up”. Il ritardo medio della cultura scientifica e tecnologica del nostro Paese suggerisce l’avvio di un’iniziativa nazionale di ricerca che coinvolga le strutture pubbliche e le imprese con adeguati finanziamenti, ad integrazione delle iniziative comunitarie.
Alcuni progetti di ricerca interessanti potrebbero avere come obiettivi la formulazione di riassunti, la traduzione di discorsi pronunciati a voce nei testi corrispondenti, la scoperta di tentativi di frodi, l’analisi di dati finanziari. Soprattutto, sarebbe importante misurarsi con i progressi recenti nell’area dell’I.A. generativa e in particolare realizzare ricchi modelli linguistici finalizzati al supporto di processi di business. Infatti, i modelli linguistici sono fortemente dipendenti dal linguaggio di riferimento e i modelli relativi alla lingua italiana sono attualmente poveri. Sarebbe rivoluzionaria l’attuazione di una piattaforma conversazionale di ampio spettro applicativo basata sul linguaggio italiano. Sarebbe infine da incentivare lo sviluppo di nuove architetture di sviluppo di modelli d’IA più efficienti, che richiedano un minor consumo di risorse ed energia.
BIBLIOGRAFIA
Brook A. (a cura di), Open Source Law, Policy and Practice, Oxford, 2022
Ciurcina, Marco, (2023), “Libertà di ricerca, licenze libere e sistemi d’intelligenza artificiale”, Rivista di Digital Politics, 2, 397-412
Cristianini, Nello, (2023), La Scorciatoia, il Mulino
Cucchiara, Rita, (2021), L’Intelligenza non è artificiale, Mondadori
De Gregorio, G. (2021), The Rise of Digital Constitutionalism in the European Union, in «International Journal of Constitutional Law», 19(1), pp. 41–70
Engler A. (2021), How Open-Source Software Shapes Ai Policy, The Brookings Institution’s Artificial Intelligence and Emerging Technology (AIET), https://www.brookings.edu/articles/how-open-source-software-shapes-ai-policy/
Giraudo M., Incertezza giuridica ed instabilità economica, «Sistemi intelligenti, Rivista
quadrimestrale di scienze cognitive e di intelligenza artificiale », 2023, 1, pp.179-198.
Liesenfeld A., Dingemanse M. (2024), Rethinking open source generative AI: open-washing and the EU AI Act in The 2024 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’24), June 03–06, 2024, Rio de Janeiro, Brazil. ACM. doi: 10.1145/ 3630106.3659005
Mitchell, Melanie, (2022), L’Intelligenza Artificiale, Piccola Biblioteca Einaudi