MARCO RAMILLI, intervistato da FRACESCO ZANOTTI
Un allert, una specie di etichetta. Per distinguere le immagini reali da quelle create con l’intelligenza artificiale. A questo sta lavorando Marco Ramilli, fondatore della start up Yoroi, azienda leader nel campo della cybersecurity. Ramilli sta mettendo a punto un sistema capace di fornire il grado di attendibilità di una fotografia, per fronteggiare il proliferare di fake news. Questo nuovo progetto, «non per farci un business — assicura — ma per realizzare un mezzo da fornire a giornali e insegnanti», attiva una sorta di avvertimento: davanti a un’immagine (per il momento il campo di ricerca è limitato al settore foto per essere poi ampliato a testi, video e audio) il supporto digitale consente di sapere con quale percentuale può essere vera o falsa. O meglio: se realizzata dal vivo o grazie all’intelligenza artificiale.
![](https://francescomacri.wordpress.com/wp-content/uploads/2024/04/download-15.jpg?w=299)
Ramilli, parliamo delle implicazioni dell’intelligenza artificiale (IA). Può interferire anche in occasione di consultazioni elettorali?
L’IA può giocare un ruolo cruciale in caso di elezioni. Potrebbe realizzare una manipolazione di massa, magari usando social network o canali ad hoc con informazioni che sembrano vere, ma che non lo sono. Questo si può realizzare attraverso immagini che possono trarre in inganno. Non sapere se quello che si guarda o si legge è creato in maniera artificiale può manipolare la percezione della realtà in tanti. In letteratura ci sono casi importanti su elezioni passate. All’epoca non si agiva attraverso l’IA, ma con interventi specifici nei social media. Oggi questa possibilità è ancora più ampia. Ecco perché ritengo sia rilevante sapere se quanto vediamo e leggiamo sia frutto di IA o del lavoro umano. Da qui l’idea di creare un allert.
Continua a leggere