L’Intelligenza Artificiale (AI). Come giungere ad una comunanza etica nella società del pluralismo

Consulta Scientifica del Cortile dei Gentili

L’Intelligenza Artificiale sta sempre di più assumendo lo stato di questione centrale dei nostri tempi. Lo è dal lato dei suoi sviluppi scientifici e delle applicazioni tecnologiche, e lo è dal lato delle valutazioni e delle azioni che nei suoi confronti vengono intraprese sia dalle istituzioni politiche sia dalle agenzie morali, e in primo luogo tra queste da parte delle religioni.

Va innanzitutto notato come l’espressione “Intelligenza Artificiale” non abbia una definizione sufficientemente rigorosa, ed è possibile che continuerà a non averla. L’espressione comprende in realtà cose molto diverse tra loro. Alcune riguardano la ricerca fondamentale nell’ambito della computazione. Altre riguardano i tentativi di simulazione del pensiero umano oppure applicazioni delle tecnologie derivanti dai nuovi strumenti di computazione alla razionalizzazione dei processi produttivi in tutti gli ambiti, da quelli dei servizi a quelli della manifattura, a quelli dell’agricoltura. Altre ancora riguardano le applicazioni delle tecnologie di computazione al controllo e all’organizzazione del comportamento umano, a livello sia individuale sia collettivo.

Di fronte alle domande fondamentali dal punto di vista etico sull’Intelligenza Artificiale, si mostra ancora una volta tutta la profondità del principio metodologico tradizionale della scuola gesuitica: “Numquam nega raro adfirma distingue frequenter”.

È argomentabile che una parte non secondaria del basso grado di chiarezza che caratterizza le discussioni pubbliche sull’Intelligenza Artificiale sia dovuta proprio alla forza evocativa dell’espressione, alla quale non corrisponde necessariamente un contenuto descrittivo adeguato. Più di quarant’anni fa, il grande filosofo Karl Raimund Popper contestò fortemente che avesse un contenuto epistemologicamente valido dare alla ricerca sulla computazione e sulla simulazione del pensiero umano la qualificazione di “intelligenza artificiale”. Gli algoritmi di computazione, come processi e come prodotti, possono rappresentare soltanto una parte, e non quella più significativa e importante, dell’intelligenza umana. La disponibilità oggi di strumenti di calcolo sempre più potenti non fa venir meno questa fondamentale verità.

Le questioni etiche che si pongono nei confronti dell’Intelligenza Artificiale difficilmente possono riguardare i progressi che vengono fatti sia nell’ambito della computazione sia in quello della simulazione del pensiero umano. Si tratta di progressi conoscitivi, non diversi da quelli che avvengono negli ambiti della fisica o della chimica o della biologia. Quando si considerano questi ambiti, si deve sempre tenere presente lo straordinario apporto che essi stanno dando a ogni settore della ricerca scientifica. Come è noto, ad esempio, sono stati i risultati del deep learning – che è una delle ramificazioni più avanzate dell’Intelligenza Artificiale – che hanno permesso di ottenere in tempi incomparabilmente più brevi del passato i vaccini contro SARS-CoV-2, il virus che causa Covid-19.

Ovviamente, anche questo aspetto dell’Intelligenza Artificiale è comunque soggetto a scrutinio etico, esattamente come avviene per ogni campo della conoscenza scientifica. Lo scrutinio riguarda sia la conformità delle procedure ai canoni etici fondamentali e alla deontologia, sia le potenziali conseguenze negative che possono derivare dall’utilizzo dei suoi risultati. Non vi è infatti nulla di assoluto nell’attività umana, nulla che non debba essere ricondotto al rispetto dei principi etici fondamentali.

L’Intelligenza Artificiale non nasce da una volontà negativa. Non nasce da una volontà di dominio. Nasce da una volontà conoscitiva. Ma sappiamo che la volontà conoscitiva può condurre a conseguenze lontane dai principi dell’etica. Come disse nel 1947 J. Robert Oppenheimer, tra gli inventori della bomba atomica, “In un senso crudo che non potrebbe essere cancellato da nessuna accezione volgare o umoristica, i fisici hanno conosciuto il peccato”. D’altra parte, già nel 1950 Norbert Wiener, uno dei padri della cibernetica e dell’Intelligenza Artificiale, aveva ammonito circa l’utilizzazione inumana degli esseri umani ove si cedessero alle macchine gli umani poteri di scelta e di controllo.

Il “peccato” può non nascere da una volontà individuale. Esso può essere il risultato oggettivo di un concatenarsi di azioni individuali ognuna delle quali, singolarmente presa, è conforme alla morale, ma che combinate producono effetti moralmente inaccettabili. È in ciò il senso della nozione di struttura di peccato coniata da Giovanni Paolo II nell’enciclica Sollecitudo rei socialis (1987). Le scienze sociali hanno esplorato a fondo il fenomeno che David Hume definì “il risultato dell’azione umana ma non di un progetto umano”. Sappiamo che un’irrazionalità collettiva può derivare – e molto spesso deriva, come nel caso dell’inquinamento – dalla somma di innumerevoli azioni umane razionali. Soltanto l’azione di regole morali e giuridiche può evitare che questo si produca.

Oggi gli sviluppi dell’Intelligenza Artificiale, in ogni suo aspetto, presentano esattamente questa fenomenologia.

Vi sono aspetti dell’applicazione dell’Intelligenza Artificiale che sono chiaramente contrari ai principi etici: controllare i comportamenti ed ancor più le idee individuali sino a ridurre di fatto a finzione la libera scelta delle persone; trasformare la società in un mero aggregato di monadi, restringendo fortemente le comunità e le socialità naturali (per poi paradossalmente riproporle ma in mondi virtuali come il Metaverso); spingere la razionalizzazione dei processi produttivi sino al punto di togliere dignità alle lavoratrici ed ai lavoratori; imporre un modello algoritmico alle decisioni dei giudici e delle autorità di vigilanza. Opporsi a questo significa eminentemente volere regole giuridiche vincolanti che impediscano la reificazione della persona umana e, più in generale, l’artificializzazione dell’uomo.

Il fondamento di queste regole è largamente contenuto nei valori costituzionali dei Paesi liberaldemocratici, e non solo. Il diritto positivo può dispiegare la sua azione secondo un modello che è conosciuto da sempre, riguardo sia i diritti individuali sia i diritti sociali. Un modello ovviamente da adeguare alle nuove circostanze, che si ispiri eticamente alla visione umano-centrica nel rapporto uomo-macchina. Una visione che riconosca alcune dimensioni antropologiche insostituibili e non simulabili quali l’autoconsapevolezza, la libertà e la relazionalità interpersonale, che affermi l’esigenza di mantenere un controllo umano significativo e che faccia propria l’esigenza di evitare eccessive deleghe tecnologiche mantenendo per un verso la sinergia complementare tra uomo e macchina, e per un altro costruendo tecnologie dell’Intelligenza Artificiale affidabili, spiegabili (nei limiti del possibile), tracciabili, trasparenti e inclusive.

Certo è che la sfida maggiore della regolazione delle applicazioni dell’Intelligenza Artificiale dal punto di vista dei valori etico-costituzionali è quella di contrastare il fortissimo driver di stampo utilitaristico che esse stanno imprimendo a tutto il mondo della produzione economica. Se si vuole, una sorta di neo-taylorismo diffuso e generalizzato, che però non si limita più al settore della produzione industriale. Uno dei temi centrali per il prossimo futuro è quello delle regole e della governance delle tecnologie dell’Intelligenza Artificiale.

In tutti i campi di applicazione la società ha trovato e può trovare nella nuova strumentazione tecnologica un supporto, a volte assai utile, alla propria sussistenza e sostenibilità, ma nulla ancora nel panorama dello sviluppo tecnologico ha dato vita a forme soddisfacenti di riproduzione dei processi umani e sociali più complessi, di sostituzione delle forme di aggregazione e relazione tra individui, dei rapporti terapeutici ed educativi, delle attività lavorative.

Oltre che sui rischi di un annullamento dell’umano, o di una sua radicale trasformazione in altro da sé, le scienze sociali richiamano quindi l’attenzione sugli strumenti di governo, controllo e orientamento dello sviluppo tecnologico, e sulla riflessione etica rispetto all’armonizzazione dei percorsi di ricerca tecnologica con i principi della dignità umana e della giustizia allocativa.

Una questione importante che si pone è come far sì che le regole giuridiche non blocchino o limitino fortemente un giusto progresso tecnologico, ovvero un progresso che migliori le prospettive di vita dei cittadini. Non si tratta solamente di un miglioramento della produttività. Le tecnologie dell’Intelligenza Artificiale già oggi hanno apportato progressi notevoli nel campo della medicina, della gestione del territorio, della lotta all’inquinamento, dell’uso razionale delle risorse scarse come l’acqua. Esse possono avere un ruolo fondamentale nel migliorare la qualità della vita, e aiutare ad avere un ambiente migliore.

Regolare l’Intelligenza Artificiale contemperando le diverse esigenze è probabilmente la sfida maggiore che i nostri sistemi si trovano ad affrontare. Con il corollario che l’evoluzione delle tecnologie “invasive” appare essere molto più veloce ed imprevedibile degli strumenti del diritto positivo a disposizione dei nostri sistemi politici. D’altro canto, la globalizzazione del sistema economico espone i singoli Paesi ad asimmetrie fortissime nei costi e benefici della regolazione delle applicazioni dell’Intelligenza Artificiale in molti ambiti sociali.

Come per la gran parte delle altre regole dell’economia – ad esempio, quelle che riguardano i diritti dei lavoratori – è difficilmente immaginabile, in ogni prospettiva storica realistica, che si arriverà ad avere regole globali, che riguardino se non tutti i Paesi del mondo almeno quelli più importanti e popolosi. In questo, tuttavia, l’Europa Il potrebbe avere una funzione propulsiva ed essere la prima, globalmente parlando, a indicare un modello cui riferirsi.

Distingue frequenter. Le regole e gli obblighi giuridici relativi alle applicazioni sono distinti da quelli che devono riguardare la corretta direzione della ricerca sull’Intelligenza Artificiale. Specialmente di quella parte di essa che mira a riprodurre attraverso gli artifici – come si sarebbe detto nel Rinascimento – il pensiero umano e, secondo certe linee di ricerca, anche le emozioni e i sentimenti umani. Non solo conoscere, ma appunto riprodurre.

Qui la dimensione esclusivamente, o anche prevalentemente, giuridica, è largamente insufficiente. Lo è per la natura stessa dello strumento giuridico, che elabora norme volte a evitare danni certi o probabili che riguardino singole persone o l’intera società. Ciò può avvenire, appunto, quando si tratti di evitare controlli pervasivi sulle vite dei cittadini. Ma qui ci troviamo di fronte a ciò che i giuristi definiscono “interessi adespoti”, come sono quelli delle generazioni future.

Difficilmente le norme giuridiche possono essere di guida o di contenimento di comportamenti le cui conseguenze negative non sono né certe né determinabili al presente e tantomeno al futuro, e che non consentono quindi quel giudizio di valore o disvalore proprio della norma giuridica. Qui si dispiega lo spazio proprio e specifico dell’etica. Spetta alla coscienza dei ricercatori, come singole persone e come comunità, svolgere il ruolo di guida nel decidere su cosa fare ricerca, e come farla.

È affar di coscienza valutare i rischi per le generazioni presenti e per quelle future che possano derivare dallo spingere la frontiera delle conoscenze oltre un limite tale che le ricadute tecnologiche potrebbero entrare in contrasto con i valori fondamentali della persona umana. In questa attenzione costante, però, la coscienza dei ricercatori non deve rimanere sola. Perché essa si nutre della riflessione comune che deriva dalle concezioni che vengono elaborate e mantenute dalle comunità morali, a partire dalle comunità spirituali e religiose. È in queste comunità morali che si elaborano e si rivedono continuamente le visioni antropologiche che stanno alla base della determinazione non dei mezzi – ché questi spettano alla razionalità calcolante – ma dei fini propri della persona e della società.

Senza una antropologia robusta, le regole morali sono affermazioni di un mero “dover essere” privo di un fondamento universale, e quindi soggetto al flusso del relativismo storico. Questa determinazione deve unire gli sforzi tanto di chi condivide una morale derivante da una fede religiosa e quindi da valori trascendenti, quanto di chi condivide una morale basata su valori immanenti ma che non per questo siano destinati a dissolversi nel relativismo. Il problema serio, ancora in attesa di soluzione, è dunque quello di come giungere a una comunanza etica (la Koinotes aristotelica) nella società del pluralismo.

___________________________________

Il Documento è stato elaborato con il contributo di tutti i componenti della Consulta scientifica del Cortile dei Gentili (www.cortiledeigentili.com) ed è stato approvato il 28 ottobre 2022. Ha curato le successive versioni Cinzia Caporale. Osservazioni e commenti possono essere inviati all’indirizzo di posta elettronica segreteria@cortile.va

Contrassegnato da tag