Ethan Zuckerman, studioso di media, pubblica sul suo sito un articolo in cui esamina come il concetto di “egemonia culturale” elaborato da Antonio Gramsci può essere applicato all’ambiente di cultura e comunicazione contemporaneo, sempre più caratterizzato dai “Large Language Models” che sono alla base dei software di Intelligenza Artificiale.
L’autore ricorda come Gramsci sosteneva che il potere non si esercita solo con la forza ma anche attraverso il consenso, costruito tramite il controllo delle idee dominanti. In altre parole, chi decide quali contenuti circolano e quali valori vengono promossi, esercita un’influenza profonda sulla società.
Oggi questo controllo è mediato da algoritmi di raccomandazione, sistemi di moderazione automatica e filtri invisibili. Le piattaforme digitali non si limitano a ospitare contenuti: decidono quali contenuti vediamo, quali diventano virali e quali scompaiono. Questo processo è rapido, invisibile e difficilmente contestabile. Il risultato è che la nostra percezione della realtà è filtrata da macchine secondo logiche decise da poche aziende globali.
I rischi che appaiono evidenti da questa situazione sono di diversi tipi, mentre sembra sempre più difficile il raggiungimento della democratizzazione dell’informazione nella quale si riponevano speranze all’alba di Internet:
1. Concentrazione del potere: poche piattaforme controllano la maggior parte delle interazioni online. Questo significa che decisioni prese da un numero ristretto di attori influenzano miliardi di persone.
2. Opacità degli algoritmi: non sappiamo esattamente come funzionano i sistemi che determinano cosa vediamo. Questo rende difficile contestare eventuali distorsioni o discriminazioni.
3. Uniformità culturale: gli algoritmi tendono a privilegiare contenuti popolari e conformi alle norme dominanti, riducendo la visibilità di opinioni minoritarie.
4. Colonialismo digitale: le piattaforme globali esportano valori e modelli culturali tipici delle società ricche, creando una nuova forma di egemonia culturale su scala planetaria.
L’autore suggerisce alcuni possibili interventi di mitigazione dei rischi:
• Trasparenza algoritmica: rendere pubblici i criteri con cui vengono selezionati i contenuti.
• Regolamentazione democratica: introdurre norme che impediscano la concentrazione eccessiva del potere.
• Pluralismo tecnologico: favorire piattaforme decentralizzate e modelli alternativi che garantiscano diversità culturale.
Ma l’intervento più importante è probabilmente quello di avvertire il pubblico che le tecnologie non sono strumenti neutrali, ma sono meccanismi di potere che possono influenzare opinioni, comportamenti e valori. Comprendere questo fenomeno è essenziale per difendere la libertà di espressione e la diversità culturale in un mondo sempre più automatizzato.


Commenta qui sotto e segui le linee guida del sito.