Algoritmi, l’enorme potere di condizionamento della vita umana

AIROLDI MASSIMO

Prof. Massimo Airoldi, Lei è autore del libro Machine Habitus. Sociologia degli algoritmi, edito da Luiss University Press: innanzitutto, perché una sociologia degli algoritmi?

Perché senza algoritmi, oggi, non c’è società. Gli scambi economici e linguistici, le relazioni sociali, la mobilità quotidiana, il lavoro, il consumo, l’amore: ogni ambito della nostra vita funziona grazie a vasti sistemi algoritmici. Alcuni sono molto sofisticati, tanto da guadagnarsi l’appellativo di “intelligenze artificiali”. È il caso di modelli noti al grande pubblico, come ChatGPT o AlphaGo, o delle IA capaci di generare immagini a partire da brevi input testuali. Questi però sono solo la punta luccicante di un enorme iceberg tecnologico in gran parte sommerso, accumulato attraverso secoli di ricerca scientifica, ambizione imprenditoriale e artigianato ingegneristico. Gli algoritmi relativamente semplici che filtrano la posta indesiderata, classificano il credito, consigliano contenuti online e gestiscono istantaneamente transazioni finanziarie globali sono forse meno visibili, ma molto più potenti di sistemi come ChatGPT nel plasmare le scelte, i gusti, le opinioni, la cultura e i destini degli esseri umani.

Da un lato, dunque, la sociologia degli algoritmi descritta in Machine Habitus serve per capire e analizzare criticamente le molteplici conseguenze sociali e culturali della nostra condizione algoritmica. Il codice algoritmico è nella cultura, fa la differenza all’interno della società, e così facendo la plasma in modi spesso opachi e non facili da decifrare. Si pensi alle IA generative: come cambiano il mondo dell’arte visuale? Quanto le nostre preferenze musicali sono influenzate dai sistemi di raccomandazione di Spotify o YouTube? Fino a che punto l’esposizione a media algoritmici come Instagram o TikTok rinforza, o viceversa trasforma, le nostre identità e opinioni? La sociologia degli algoritmi tenta di rispondere a domande come queste, a livello teorico come empirico, riconoscendo che l’interazione ubiqua, ricorsiva e, spesso, invisibile che intercorre tra umani e macchine, tra utenti e algoritmi, costituisce il tessuto delle società digitali contemporanee.

Dall’altro lato, la sociologia degli algoritmi ci ricorda anche come le tecnologie, e specialmente quelle algoritmiche, non sono mai neutre. Gli algoritmi sono disegnati da persone con valori, provenienze sociali e interessi di parte; i dati a partire dai quali le macchine apprendono a classificare il mondo riflettono sempre abitudini, idee e stereotipi socialmente situati e molto umani. Insomma la cultura – la nostra, impastata con disuguaglianze e asimmetrie di potere – si specchia nel codice che ci profila e indirizza.

Machine Habitus tenta di districare il codice nella cultura e la cultura nel codice, mappandone la dialettica, e dialogando con una vasta letteratura multidisciplinare attraverso le lenti della teoria sociologica.

Come possiamo comprendere i bias delle macchine dal punto di vista sociologico?
La nozione di bias, molto popolare nella letteratura critica su algoritmi e IA, presenta un solo problema: è normativa. Considerare un algoritmo come “biased” implica, sullo sfondo, una presunta idea oggettiva di neutralità e giustizia, la quale – da un punto di vista sociologico, e in particolare della sociologia di Pierre Bourdieu a cui questo libro si ispira – è problematica. Non è semplice correggere in modo oggettivo gli algoritmi “cattivi” che discriminano le minoranze, perché i singoli bias sono manifestazioni culturali di più ampie disuguaglianze strutturali che caratterizzano le nostre società, le cui tracce si nascondono nei dati di training e tra le righe del codice. In altre parole: non basta aggiustare ex post i livelli di melanina di un’immagine generata dall’IA per rendere il modello algoritmico meno razzista. Bisognerebbe studiare gli esempi contenuti nei dataset attraverso cui l’IA in questione è addestrata, comprenderne le inevitabili origine umana e impronta sociale, provare a rendere più trasparente il tortuoso processo sociotecnico attraverso cui gli algoritmi arrivano a prendere decisioni in modo apparentemente autonomo e neutrale. Insomma, per approcciare sociologicamente i bias delle macchine, servirebbe applicare gli strumenti classici delle scienze sociali a questi nuovi agenti artificiali – i quali, lungi dall’essere freddi oggetti matematici, sono in primis prodotti culturali.

Quali tipi di cultura datificata abitano gli algoritmi che normalmente incontriamo online?
Un primo tipo di cultura nel codice è quella dei creatori di macchine, gli sviluppatori e ingegneri informatici che disegnano e implementano gli algoritmi. Questa non è esattamente una novità: le intenzioni, valori e interessi commerciali di Thomas Edison si riflettono nel brevetto della lampadina a incandescenza, come quelli di Mark Zuckerberg abitano i parametri degli algoritmi che distribuiscono contenuti su Facebook e Instagram. Gli artefatti tecnologici non sono mai neutrali: le visioni del mondo dei loro creatori e finanziatori ne influenzano il design e prescrivono stabilmente il funzionamento.

Esiste però un secondo tipo di cultura nel codice, che caratterizza in particolare gli algoritmi ad apprendimento automatico o di machine learning alla base dell’odierna intelligenza artificiale, veri protagonisti di questo libro. Questo secondo tipo di cultura risiede nei giganteschi volumi di dati utilizzati per l’addestramento delle macchine, prodotti da migliaia clickworker (sotto)pagati per annotare le immagini che nutriranno una rete neurale, come da miliardi di ignari utenti delle piattaforme digitali, i cui comportamenti e messaggi sono silenziosamente tracciati e misurati. Le regolarità presenti nei dataset di training – ad esempio il fatto che all’etichetta “gatto” tenderanno a corrispondere solo certe composizioni di pixel, o che chi ascolta abitualmente musica classica difficilmente ama il metal finlandese – sono alla base del funzionamento futuro di sistemi algoritmici come quelli utilizzati per la computer vision e la raccomandazione musicale.

Quest’altra cultura nel codice si insedia pertanto nelle disposizioni statistiche che portano un algoritmo di machine learning a comportarsi in un modo piuttosto che in un altro. È una cultura ramificata, imprevedibile, generativa, dalle conseguenze probabilistiche, tendenzialmente opaca. Può essere “globale” e dalle radici sociali incerte, così come “locale” e socialmente situata, specie quando fondata sui feedback forniti da singoli utenti. Ispirato da Pierre Bourdieu, nel libro la interpreto e analizzo come habitus: scatola nera culturale fatta di esperienze sedimentate e disuguaglianze incorporate, la quale pre-filtra e orienta invisibilmente pratiche individuali solo apparentemente libere e consapevoli. La mia tesi è che anche le macchine, pur sprovviste di vita e coscienza, possiedano qualcosa di simile: il machine habitus. E, pertanto, possono essere studiate sociologicamente come agenti sociali sui generis, i quali abitano a loro modo la società, e ne sono a loro volta abitati.

Quali sono i processi di socializzazione che portano alla formazione dell’habitus della macchina?
Quella del machine habitus è, ovviamente, una semplice metafora che non intende alimentare forme ingenue di antropomorfismo. Lo stesso vale per l’idea che gli algoritmi, attraverso l’apprendimento automatico, siano in qualche modo socializzati a partire dai dati di training. L’analogia tra la socializzazione degli umani – come descritta, ad esempio, da Berger e Luckmann ne La realtà come costruzione sociale – e l’addestramento delle macchine ha come scopo principale quello di ricordarci che i dati portano con sé tracce dei contesti sociali in cui sono generati, incapsulate nelle scelte datificate degli utenti. Gli acquisti su Amazon, gli ascolti su Spotify, le ricerche su Google, le visualizzazioni su TikTok o YouTube, variano considerevolmente in base al genere, alla classe sociale, all’orientamento sessuale, all’etnia ed età degli utenti. I dati che ne derivano non ci parlano solo dei bisogni e desideri dei consumatori digitali, ma anche e soprattutto delle loro identità e appartenenze sociali: possono essere visti dunque come “contesti di dati”, a partire dai quali le macchine acquisiscono un modo socialmente situato di vedere e classificare il mondo, un po’ come nel caso dei processi di socializzazione “pratica” descritti in sociologia.

In quali modi le macchine socializzate plasmano la nostra società?
In primis plasmano noi, quello che vogliamo, quello che siamo. Le macchine ci orientano gentilmente ma con decisione, forti delle asimmetrie informative che strutturano le architetture di app e piattaforme, grazie alle quali loro sanno tutto di noi, e noi quasi niente di loro. La sezione “For you” di TikTok e l’homepage di Netflix sono assemblate apposta per noi, sulla base dei nostri comportamenti digitali passati, e al contempo prescrivono i nostri comportamenti futuri indirizzandoli con garbo. Nel libro provo a descrivere questa danza continua tra algoritmi di raccomandazione e utenti delle piattaforme, tra habitus della macchina e habitus degli umani, che si dispiega – perlopiù invisibile – in quasi ogni angolo delle nostre vite digitali. Quello che chiamiamo società, ciò che chiamiamo cultura, sono oggi in parte la conseguenza di queste interazioni più che umane, del loro rafforzare o, viceversa, trasformare abitudini e habitus, sospese tra spinte algoritmiche verso una normalizzazione dell’osservabile e tattiche resistenti degli utenti classificati. Le conseguenze non riguardano soltanto i video che guarderemo sullo smartphone, ma più in generale tutti i campi tecno-sociali influenzati dalle decisioni delle macchine socializzate, dai mercati finanziari al giornalismo, dagli usi linguistici ai mondi dell’arte.

Quali potrebbero essere gli effetti aggregati degli intrecci tra umani e macchine a livello dei campi tecno-sociali?
Come scrivo nel libro, al momento possiamo soltanto fare delle ipotesi, in assenza di un accesso completo ai dati di cui dispongono le grandi aziende e piattaforme che adottano algoritmi su larga scala. Io provo a immaginare quattro scenari teorici, vanno da una normalizzazione delle regolarità socioculturali a una loro riconfigurazione, e da una loro moltiplicazione e differenziazione a una progressiva frammentazione. È più utile, però, pensare a come superare i limiti delle ricerche esistenti, per rendere la sociologia degli algoritmi sempre più empirica. Le conclusioni di Machine Habitus vanno in questa direzione: auspicano una ricerca sociale capace di abbracciare le danze e piroette mediate dalle infrastrutture estrattive delle piattaforme e, pensando ancora più in grande, l’evoluzione congiunta di individui e macchine socializzate su larga scala. La riproduzione tecno-sociale, quindi, in quella che è a tutti gli effetti una società più che umana.

in https://www.letture.org

________________________

Massimo Airoldi è sociologo dei processi culturali e comunicativi presso il Dipartimento di Scienze Sociali e Politiche dell’Università degli Studi di Milano. Insegna “Sociology of AI” alla Laurea Magistrale Interateneo in Human-Centered AI.

Contrassegnato da tag , ,