Il termine "engagement" è diventato centrale nel lessico digitale, rappresentando la metrica principale attraverso cui si misura il successo di contenuti e piattaforme online. Dietro questa apparente neutralità si celano dinamiche complesse che influenzano profondamente la società.
Direi dunque che "engagement" è la metrica regina del web, il parametro attraverso cui si misura il successo di una campagna, di un contenuto, persino di un'intera piattaforma. Ma ciò che spesso sfugge è che l’engagement non è neutrale. Dietro la corsa a massimizzarlo si nasconde un prezzo che le aziende tech hanno scaricato sulla società intera: la polarizzazione del discorso pubblico, l’erosione del pensiero critico e le fragilità delle democrazie.
Ogni interazione online è mediata da algoritmi che decidono cosa vediamo, quando lo vediamo e in quale ordine. Questi sistemi non operano secondo valori etici o giornalistici, ma secondo una semplice funzione obiettivo: ottimizzare il tempo di permanenza e la probabilità di interazione. È qui che entra in gioco il concetto di engagement.
Nel machine learning, ottimizzare significa massimizzare una funzione di ricompensa. Per i social, questa funzione è basata su metriche come click-through rate, commenti, condivisioni e tempo di visualizzazione. Questi segnali vengono utilizzati dai modelli predittivi per classificare e ordinare i contenuti nei feed degli utenti.
Il problema è che non tutti i contenuti generano engagement allo stesso modo. Alcuni studi indipendenti e ricerche interne (alcune trapelate dai diversi whistleblower) hanno dimostrato che contenuti polarizzanti, provocatori o emotivamente estremi hanno una probabilità significativamente maggiore di stimolare interazioni. In termini computazionali: l’algoritmo non “vuole” mostrarci odio, ma scopre che l’odio funziona — genera più dati, più clic, più entrate pubblicitarie. E lo amplifica.
Nel linguaggio dell’ingegneria dei sistemi, potremmo definire questi effetti come “externalities of optimization”: danni collaterali prodotti da un obiettivo di ottimizzazione non calibrato su criteri sociali o etici. Le piattaforme non hanno previsto questi effetti perché i loro obiettivi iniziali erano pensati per il business, non per la società. Non era compito degli sviluppatori prevenire la disinformazione, la radicalizzazione, l’odio etnico. Eppure le piattaforme sono diventate veicoli di amplificazione di conflitti reali, accelerando tensioni latenti fino a renderle ingestibili.
Le evidenze si moltiplicano:
- Gli algoritmi di Facebook, secondo report interni del 2019, premiavano contenuti negativi e divisivi;
- Il flusso di contenuti estremisti su YouTube è stato collegato a meccanismi di autoplay e suggerimenti basati sul tempo di visualizzazione;
- TikTok ha mostrato come l’ottimizzazione per il “loop breve e ipnotico” possa portare a distorsioni cognitive, soprattutto nei più giovani.
In ciascun caso, la logica dell’engagement ha avuto un ruolo centrale.
Nel sistema informativo classico, esisteva un filtro editoriale. Nei social, questo ruolo è svolto dall’algoritmo. Ma, a differenza di un editore, l’algoritmo non valuta la qualità del contenuto, ma solo la sua “reattività”. Il risultato è un ecosistema dove la viralità conta più della veridicità, e la logica del “uno vale uno” appiattisce la differenza tra fonti autorevoli e contenuti manipolativi.
La funzione sociale dell’informazione viene subordinata alla logica dell’attenzione. E quando l’attenzione diventa la valuta dominante, a guadagnarci non è la verità ma lo scandalo.
Allora poniamoci questa domanda: è possibile ripensare l’architettura dei social? In parte, sì. Ma richiede un cambio di paradigma:
- Ridefinire gli obiettivi di ottimizzazione tenendo conto dell’impatto sociale
- Introdurre metriche alternative all’engagement: affidabilità, impatto positivo, diversità di prospettive
- Sostenere algoritmi trasparenti su cui sia possibile esercitare un controllo pubblico o indipendente
Il punto cruciale è che il design di un algoritmo è una scelta politica, oltre che tecnica. Decidere cosa massimizzare significa decidere quale mondo vogliamo costruire.
L’attenzione è il bene più scarso del nostro tempo.
Trattarla come una risorsa da estrarre e vendere senza regole ha portato benefici economici enormi per poche aziende, ma costi sociali diffusi per tutti gli altri.
Il costo nascosto dell’engagement è questo: una società più divisa, più fragile, meno capace di distinguere il vero dal falso. Non serve demonizzare la tecnologia, né idealizzare un passato che non tornerà. Ma serve pretendere responsabilità da chi progetta i sistemi che mediano la nostra vita quotidiana.
Perché ogni algoritmo è un filtro tra noi e il mondo. E chi lo scrive, o lo lascia scrivere, ha una responsabilità che non può più essere ignorata.