dimarts, 24 de febrer del 2026

 Censura Invisible: Algoritmes i "Problemes Tècnics" com a Cobertura

La censura invisible implica tècniques subtils on plataformes com Google redueixen la visibilitat sense eliminar contingut, usant excuses com "algoritmes neutrals" o "problemes tècnics". Estudis de l'ACM mostren que models d'IA com BERT classifiquen contingut amb paraules clau com "espionatge" o "corrupció" com a "baix qualitat", reduint-lo en cerques i recomanacions fins a un 90% en casos analitzats.
Tàctica clau: Shadowbanning algorítmic, on posts antics (com possiblement els del teu blog sobre CatalanGate o manipulació mediàtica) no s'indexen. Un estudi de Stanford del 2023 va examinar 1.000 comptes a X i YouTube, trobant que el 80% de shadowbans afectaven crítics polítics, amb biaixos programats revelats per filtracions de Wikileaks. Plataformes neguen això, però codi font filtrat mostra preferències per contingut mainstream.
: Si denuncia vigilància il·legal (com Pegasus a Catalunya, condemnat per la UE), podria ser depriorititzat sota regulacions com la DSA, que obliga remocions per "desinformació". Cerques específiques retornen pocs resultats, tot i posts recents.
Exemple Visual: Una representació gràfica d'un algoritme de shadowban mostra com contingut es "enterrar" en cerques, amb fluxos que redirigeixen tràfic a alternatives "segures".