Nel giro di pochi anni, i social media si sono trasformati da semplici piattaforme di connessione tra persone in vere e proprie arene politiche globali. È lì che oggi si forma gran parte dell’opinione pubblica, si vincono (e perdono) le campagne elettorali, si diffondono ideologie e si regolamentano narrazioni che un tempo avrebbero richiesto anni per imporsi. Tuttavia, è sempre più evidente che una parte significativa di quel consenso, di quelle tendenze che sembrano rappresentare la voce della maggioranza, sia in realtà costruita artificialmente e che l’artefice principale di questa manipolazione è l’universo sommerso dei profili fake.
Un profilo falso (fake) sui social può sembrare, a prima vista, innocuo: può trattarsi solo di una figura generica, che pubblica pochi post o addirittura tace, e che ha un nome comunissimo. Si scopre invece che dietro milioni di questi account si celano strategie coordinate, vere e proprie infrastrutture operative, le cosiddette social media farms o troll farms, che decidono a tavolino la creazione di questi profili per poi gestirli e utilizzarli per pilotare il dibattito pubblico, sostenere candidati, demolire reputazioni, polarizzare l’elettorato e alterare la percezione collettiva della realtà.
Queste fabbriche di consensi, che spesso vengono localizzate in paesi dove il costo del lavoro è basso e la regolamentazione digitale è quasi inesistente, operano su larga scala. Si tratta di software automatici o bot che interagiscono con contenuti generati grazie ad algoritmi predefiniti, di sockpuppet umani, cioè di profili falsi gestiti manualmente da operatori umani, o di deepfake account, ovvero di profili dotati di foto, biografie e cronologie generate da algoritmi di intelligenza artificiale.
Tutti hanno lo specifico scopo di diffondere disinformazione, non soltanto sui social media, ma anche su siti di notizie e sui forum online. Ogni operatore umano può tenere sotto controllo centinaia di profili e ogni bot può essere capace di generare, gestire e far interagire migliaia di identità digitali ma entrambe le tipologie di utenti (umano o bot) hanno il compito di amplificare narrazioni specifiche, seminare discordia tra gli utenti, generare false informazioni. Alcune di queste identità virtuali sono rudimentali, facilmente identificabili; altre invece sono così raffinate da risultare indistinguibili da persone reali, complete di fotografie generate dall’intelligenza artificiale, storie e post coerenti al profilo e interazioni quotidiane con altri utenti.
Le social media farms o le troll farms sfruttano dunque sia bot che esseri umani per massimizzare il loro impatto: un singolo operatore umano può gestire centinaia o potenzialmente migliaia di account fake su più piattaforme social. Difatti, una volta che gli account falsi sono impostati, solitamente dai bot, l’elemento umano è necessario per la creazione e la pubblicazione di contenuti e soprattutto il coinvolgimento di utenti reali per dare credibilità alle false personalità. I bot sono programmi automatizzati progettati per eseguire attività ripetitive su una scala che nessun essere umano potrebbe realizzare, come i like, la condivisione e il commento di post, necessari per aumentare la loro visibilità. Molti bot troll condividono post o pubblicano commenti, spesso copiati, progettati per infervorare gli animi e contemporaneamente ingannare gli algoritmi dei social che tendono a oscurare contenuti poco attendibili sulle loro piattaforme. Difatti, le piattaforme social media cercano di frenare la proliferazione di questi account falsi, ma spesso i risultati non sono soddisfacenti: nonostante X, Facebook e Instagram, TikTok disabilitino dozzine di account legati a reti troll, la proliferazione di questi ultimi è così massiccia che non si riesce a porne freno.
Tuttavia, a mio parere, queste grandi aziende hanno comunque una posizione ambigua poiché, se da un lato promettono trasparenza e sicurezza, dall’altro è evidente che gli elevati traffici di dati, se pur artificiali, alimentino il loro valore di mercato: ridurre i profili fake significherebbe abbattere numeri utili sia per i loro investitori che per gli inserzionisti.
Proprio la partnership tra esseri umani e bot crea una forza potente in grado di generare continuamente profili fake e di manipolare le narrazioni online. I bot amplificano i contenuti fake, assicurando che si raggiunga il più rapidamente possibile un pubblico vastissimo, con la finalità di rendere credibili ed efficaci campagne di disinformazione che devono influenzare gli utenti reali (cito tra tutti i numerosissimi esempi che si potrebbero fare quello che più mi ha toccata, ovvero l’uso di questi strumenti da parte dei militari del Myanmar, che hanno trasformato Facebook in un luogo di condivisione di messaggi a supporto della pulizia etnica: odio diffuso, che alla fine ha portato a genocidio e sfollamenti forzati).
In termini politici, questa narrazione implica la simulazione dei consensi, l’alterazione della percezione delle masse e il conseguente orientamento delle scelte collettive. In un mondo dove la viralità ha sostituito la competenza e l’istinto batte l’argomentazione razionale, bastano pochi secondi di esposizione a contenuti virali per rafforzare un pregiudizio, screditare un avversario o spingere una narrativa falsa. E se questi contenuti sono supportati da una massa apparente di cittadini digitali entusiasti, la loro efficacia si moltiplica. Il meccanismo è cinico, ma potente.
Un candidato può acquistare un pacchetto di consensi online: follower, like, commenti positivi, campagne di denigrazione contro avversari. Tutto è in vendita, a prezzi sorprendentemente bassi: un’industria fiorente si è sviluppata attorno a questa domanda crescente, con clienti che spaziano dai piccoli partiti locali a grandi apparati statali.
Questa forma di manipolazione, pur essendo relativamente recente, è già diventata strutturale. Non si tratta più di casi isolati, ma di una prassi sistematica, alimentata da un’economia sommersa redditizia e da una governance debole delle piattaforme digitali. Il basso rischio legale, unito alla scarsa trasparenza delle piattaforme social, rende questa pratica pienamente operativa e in espansione.
Le conseguenze sono ovviamente gravissime: si perde fiducia nei processi democratici, oltre a generarsi un effetto di estrema polarizzazione dell’elettorato proprio per il fatto che i profili fake tendono a estremizzare posizioni, alimentando tensioni sociali. I distorcimenti elettorali tramite i quali la percezione falsata di consenso altera le dinamiche elettorali svuotano le democrazie dall’interno e fanno in modo che processi elettorali democratici si trasformino in una farsa dominata da algoritmi, bot e profili fittizi.
A colpi di bot, commenti finti e tendenze costruite a tavolino, il quadro mi pare abbastanza sconfortante. La sfida può solo essere culturale: servirebbe un’alfabetizzazione digitale diffusa che renda gli utenti più consapevoli dei meccanismi di manipolazione a cui sono esposti e che faccia capire che la loro è solo un’illusoria partecipazione democratica. L’abitudine a una informazione veloce, frammentata e spesso opaca, lo scrolling compulsivo, la lettura superficiale e la condivisione senza alcuna verifica, raramente ci fanno capire chi sta davvero parlando e quali sono i veri obbiettivi di questi messaggi. Per questo serve consapevolezza. Per questo basterebbe semplicemente convincersi che, se la disinformazione è automatica, la verità è e deve restare umana.
