EDITORIALE
Questo articolo è stato pubblicato sull’inserto Login del Corriere della Sera il giorno 24 aprile 2023
Nell’ultimo periodo si è molto parlato di Intelligenza Artificiale (IA), ancora di più nelle scorse settimane: paradigmatico il caso di chatGPT, il chatbot conversazionale sviluppato da OpenAI, per il quale il Garante per la protezione dei dati personali ha richiesto un blocco temporaneo in Italia, e in generale dei cosiddetti Large Language Models (LLMs) per i quali è stata lanciata la proposta di sospendere il loro sviluppo per sei mesi, firmata fra gli altri da Elon Musk e Yuval Harari. Peccato che in questo gran parlare poco si sia detto di come non solo l’IA, ma tutta l’informatica, siano processi socio-tecnici così potenti da richiedere strumenti complessi per essere concepiti, sviluppati, usati e governati. Il filosofo Langdon Winner sostiene, infatti, che le tecnologie hanno sempre una connotazione politica, sia intenzionale, come per i “cavalcavia razzisti” progettati per impedire il passaggio del trasporto pubblico e di conseguenza delle minoranze, sia non intenzionale, come l’introduzione delle macchine per la raccolta dei pomodori e del conseguente impatto sul lavoro. Anche nel caso della IA l’attenzione si è concentrata su chi urlava più forte per sostenere che l’innovazione non deve essere fermata o sul fatto che l’IA ha prestazioni paragonabili a quelle umane. È passato del tutto inosservato il potere del progetto e di come le scelte di design determinino la connotazione morale e politica delle tecnologie. Le tecnologie non sono mai neutre. Esortiamo, infatti, i nostri figli a non stare attaccati ai social media tutto il giorno quando questi sono appositamente progettati per catturare irrimediabilmente la loro attenzione. Cosa serve quindi per aprire un dibattito costruttivo sulle sfide che ci attendono? È necessaria sicuramente una nuova cultura della progettazione tecnologica che parta dal riconoscimento che le tecnologie non nascono nel vuoto, ma sono plasmate dalla società che a loro volta contribuiscono a plasmare. Serve anche riconoscere il grande potere che sta nelle mani e nelle menti di chi progetta, anticipare i problemi già in fase di progettazione, ma anche capire che progettare significa usare l’immaginazione. E ancora essere pronti alle conseguenze inattese che emergono quando la tecnologia è inserita nel suo contesto d’uso. Bisogna essere consapevoli che chi decide il progetto di una tecnologia lo fa, il più delle volte, senza renderlo oggetto di discussione pubblica. Serve non solo capire come progettare tecnologie più giuste, eque e sostenibili, ma anche chiedersi se e perché debbano essere effettivamente realizzate. Si tratta di un compito che coinvolge formazione, ricerca e dibattito pubblico. La formazione è essenziale per educare le nuove generazioni a essere consapevoli della portata morale, sociale e politica di quanto creano. La ricerca è vitale per offrire gli spazi di sperimentazione e di integrazione dei saperi. Il dibattito pubblico è cruciale per promuovere la discussione aperta e critica che accolga visioni diverse. Ci sono già segnali incoraggianti in questa direzione.
Il Politecnico di Milano ha da tempo un gruppo di umanisti e scienziati sociali che riflette sulle questioni filosofiche, etiche e sociali della scienza e della tecnologia e offre diversi corsi su questi temi ai suoi studenti. Il CINI, il consorzio interuniversitario per l’informatica, ha un laboratorio di Informatica e Società che si occupa delle questioni sociali dell’informatica, come il divario digitale, i temi di policy-making digitale, la privacy e i diritti umani. Il movimento del Digital Humanism, con il Manifesto di Vienna, si batte per un’informatica in armonia con i valori e i bisogni umani. Sono segnali positivi che mostrano una nuova cultura della progettazione tecnologica, in cui l’impatto etico-sociale non è più qualcosa di cui occuparsi solo a valle, ma diventa parte integrante della progettazione stessa così da superare il rigido blocco delle due culture che ha prodotto tanti danni. Tutto ciò chiaramente non è sufficiente, per quanto importante: i limiti e le difficoltà, tuttavia, non devono farci ritardare ulteriormente dall’imboccare in modo definitivo la strada verso una nuova cultura della progettazione tecnologica. Occorre andare al di là dei segnali incoraggianti e rendere questa nuova cultura non più l’eccezione, ma la regola. Le università possono essere il luogo privilegiato e il motore trainante di questo movimento. La sostenibilità delle nostre società, delle vite delle future generazioni e del nostro pianeta dipende anche da questo.
Viola Schiaffonati è professoressa associata di Logica e Filosofia della Scienza al Politecnico di Milano, Dipartimento di Elettronica, Informazione e Bioingegneria. Ha conseguito il titolo di dottore di ricerca in Filosofia della Scienza presso l’Università degli Studi di Genova e il titolo di dottore in Filosofia presso l’Università degli Studi di Milano. È stata visiting scholar presso il Dipartimento di Filosofia della University of California at Berkeley e visiting researcher presso il Suppes Center for the Interdisciplinary Study of Science and Technology della Stanford University.
Viola Schiaffonati ricopre vari incarichi, fra cui direttore del laboratorio nazionale CINI su Informatica e Società (IeS), fondatrice di Polimi META, unità di studi umanistici e sociali su scienza e tecnologia, e associate editor di Science and Engineering Ethics. Ha fatto parte del gruppo di esperti della Commissione Europea su ‘AI and data in education and training’ in qualità di rappresentante di Informatics Europe. I suoi principali interessi di ricerca comprendono: la filosofia dell’intelligenza artificiale e della robotica, l’epistemologia e la metodologia degli esperimenti nell’ingegneria informatica e nella robotica, le problematiche etiche dei sistemi autonomi e intelligenti.