In Vaticano un convegno sull’intelligenza artificiale. L’algoritmo al servizio dell’uomo

MICHELE RAVIART

L’Intelligenza Artificiale (AI) traduce tutto in calcolo, ma possiamo ridurre tutto a una probabilità statistica? Come possiamo tutelare professionisti e lavoratori nei media dall’arrivo dell’ai e mantenere il diritto di informare e di essere informati sulla base di verità, libertà e responsabilità? Come rendere interoperabili le grandi piattaforme che investono nelle ia generative che non riducano l’uomo a un giacimento di dati da sfruttare? Sono queste le domande — ispirate dai messaggi di Papa Francesco per le Giornate mondiali della Pace e delle Comunicazioni sociali, oltre al recente intervento al g7 in Puglia — che Paolo Ruffini, prefetto del Dicastero per la Comunicazione, ha posto ai relatori e ai partecipanti del convegno organizzato dallo stesso dicastero con la collaborazione della fondazione San Giovanni XXIII .

“L’algoritmo al servizio dell’uomo. Comunicare nell’epoca dell’intelligenza artificiale”, il tema dei lavori svoltisi stamane in Vaticano, nella Casina Pio IV , sede delle Pontificie Accademie delle Scienze e delle Scienze sociali.

Gli interventi di Francesco sull’intelligenza artificiale, ha ribadito il segretario del Dicastero, monsignor Lucio A. Ruiz, testimoniano il “fiuto” della Chiesa nel camminare con l’uomo nella sua cultura attraverso i cambiamenti della storia. È avvenuto così, ha spiegato, quando 500 anni fu creata la prima tipografia vaticana poco tempo dopo la scoperta di Gutenberg, con la costruzione della Radio Vaticana da parte dell’inventore delle comunicazioni senza filo Guglielmo Marconi nel 1931 o con la creazione del portale vatican.va nel 1994, quando il web era appena apparso sui computer della gente comune.

Ed è proprio dall’essenza primaria dei computer — quella di fare calcoli — che è iniziata la relazione di padre Paolo Benanti, docente di etica e bioetica alla Pontificia Università Gregoriana, presidente della Commissione ai per l’informazione e membro del Comitato ai delle Nazioni Unite, nel primo intervento del panel “L’etica dell’algoritmo e le sfide per la comunicazione”. Benanti ha ricordato come la realtà sia stata cambiata dall’invenzione dei transistor, messa a disposizione dagli Stati Uniti ai suoi alleati dopo i successi della Seconda guerra mondiale, quando i primi prototipi di computer contribuirono alla scoperta della bomba atomica e alla decodificazione dei codici segreti usati dalla Germania nazista. Da quella visione centralizzata della tecnologia e attraverso la rivoluzione dei pionieri della Silicon Valley negli anni ’70 del secolo scorso, si è arrivati a una computazione “personale” e intima, attraverso prima i Pc e poi gli smartphone. Con Chatgpt e la sua implementazione nelle interfacce dei telefoni Apple e Microsoft, ha sottolineato il padre francescano, non sappiamo ancora quanto il computazionale sarà personale e quanto centralizzato in cloud. Per questo, ha aggiunto, è necessaria una regolamentazione come ha fatto l’Unione Europea, in modo da fare con l’intelligenza artificiale quello che è stato fatto con il codice della strada per le automobili.

L’ai non è un salto tecnologico impressionante di per sé, ha sottolineato Nunzia Ciardi, vicedirettore generale dell’Agenzia per la Cybersicurezza nazionale. Quello che rende la sua implementazione un qualcosa che avrà un impatto antropologico decisivo sulla realtà è il fatto che si basa su un enorme quantità di dati rastrellati in questi decenni «in modo brutale» dalle aziende attraverso servizi gratuiti o applicazioni che per noi ormai sono fondamentali. Altri aspetti da sottolineare sono l’uso della lingua inglese per addestrare gli algoritmi — con tutti i valori e le espressioni culturali che un idioma ha rispetto a un altro — e il rischio di avere sempre più difficoltà a decodificare messaggi complessi, che può essere pericoloso in democrazia. «Il sapere sta diventando una proprietà privata» ha commentato il professor Mario Rasetti, emerito di Fisica teorica del Politecnico di Torino e presidente dello Scientific board di centai, raccontando l’esperienza di Openai, nata come una società no profit di scienziati e acquistata da Microsoft per dieci miliardi. Dobbiamo fare dell’intelligenza artificiale una scienza che abbia delle definizioni rigorose, ha aggiunto, perché allo stato attuale si presenta come uno strumento probabilistico, che difficilmente può misurare intelligenza, verità e causa.

in Osservatore Romano, 27 giugno 2024

Contrassegnato da tag