Il potere che esiste nella capacità di elaborare a macchina i post di ogni utente…

FASCISMO 2.0 – IL VOLTO MUTEVOLE DELLA CENSURA SUI SOCIAL MEDIA

La moderazione dei contenuti basata sull’intelligenza artificiale sta plasmando in modo sottile l’opinione pubblica e l’impegno politico

di Paolo Lancefield


Facebook guadagna solo circa £34 all’anno dal cliente medio nel Regno Unito, poco meno di £3 al mese (e questo prima dei costi), quindi è chiaro che non c’è margine o motivazione per un livello umano di servizio clienti o attenzione. L’utente non è il cliente; piuttosto, è il prodotto i cui dati vengono venduti agli inserzionisti.

Pertanto, gli utenti non hanno una relazione diretta con la piattaforma. La rete non è direttamente incentivata a “prendersi cura” dell’utente prima dell’inserzionista. E non importa dove ci si trovi nello spettro tra “assolutismo della libertà di parola” e “le entità private hanno il diritto di censurare qualsiasi utente”, con margini così bassi è inevitabile che l’elaborazione automatica debba essere utilizzata per moderare i post e gestire l’interfaccia del cliente.

Ma è un dato di fatto che le capacità di elaborazione e gestione dei clienti che i social network stanno evolvendo vengono utilizzate in vari modi oltre alla semplice moderazione. Ed è anche vero che questa elaborazione automatizzata viene eseguita su larga scala e ora viene applicata a ogni post di ogni membro. Il 68% degli elettori degli Stati Uniti è su Facebook. Nel Regno Unito è il 66% e in Francia il 73,2%. Le cifre sono simili per ogni nazione democratica in Occidente. Quindi è di vitale importanza che le regole applicate siano politicamente neutrali.

Il potere che esiste nella capacità di elaborare a macchina i post di ogni utente è molto più profondo e profondo di quanto forse molti realizzino. E mentre non può dettare direttamente cosa gli utenti scrivono nei loro messaggi, ha la capacità di modellare fondamentalmente quali messaggi ottengono successo.

I servizi dei social media sono diventati di fatto delle piazze cittadine e la maggior parte delle persone concorderebbe sul fatto che i proprietari delle loro aziende dovrebbero evitare di mettere mano alla bilancia e di influenzare la politica.

Inoltre, come tutti coloro che usano Facebook sanno, specialmente quando si tratta di argomenti politicamente sensibili, il sistema qualificherà la portata di un individuo; a volte in misura estrema. Oppure quell’utente verrà semplicemente bannato per un periodo di tempo, o bannato completamente dalla rete.

Quindi possiamo chiederci, dal momento che le aziende dei social media hanno così tanto potere di censura, come facciamo a sapere che non stanno prendendo parte a interferenze politiche non etiche? Ci si può fidare di loro per questa responsabilità?

Tornerò su questa questione, ma è chiaro che la fiducia in queste aziende è profondamente mal riposta.

La pandemia ha risvegliato molte persone ai livelli di controllo che i responsabili dei nostri social network stanno imponendo. Loro scrivono le regole per aumentare l’engagement per i post che favoriscono, rendendo più preziosi i conteggi dei follower di alcuni individui. Al contrario, gli utenti che vanno controcorrente (o contro la narrazione dell’establishment) vedono il loro engagement sottilmente ridotto o addirittura crollare, o possono essere banditi completamente dal servizio. E la prova è che, in un certo senso contrariamente ai principi della democrazia, le mani sono state messe molto saldamente sulla bilancia su Facebook, Twitter e YouTube.

Quando Elon Musk acquistò Twitter, invitò i giornalisti indipendenti Matt Taibbi, Bari Weiss e Michael Schellenburger negli uffici di Twitter per analizzare le comunicazioni interne dell’azienda e verificare fino a che punto i precedenti proprietari avessero censurato i tweet degli utenti.

I Twitter Files sono il risultato e dimostrano chiaramente che c’è stata un’interferenza su larga scala e che in molti casi è stata anche per motivi politici. Il team dei Twitter Files ha stabilito che le agenzie governative sono state saldamente radicate nell’azienda monitorando e censurando i cittadini statunitensi e i cittadini di altre nazioni e le agenzie governative richiedevano regolarmente (con forza) azioni di censura. Ma più di questo hanno anche rivelato che simili livelli di interferenza hanno avuto luogo in altri social network come Facebook.

Ma da quando Twitter ha depositato le prove dell’interferenza, è emersa una nuova e potenzialmente ancora più grande minaccia di interferenza: l’intelligenza artificiale.

C’era un tempo in cui sembrava che gli algoritmi fossero l’unico argomento di conversazione di cui i digital marketer potessero discutere. E poiché non c’è margine per l’intervento umano a livello di singoli post, gli algoritmi erano ciò che veniva utilizzato.

Per cominciare, erano piuttosto semplici, come le equazioni che studiavamo a scuola durante le lezioni di matematica, quindi erano relativamente facili da risolvere. L’ascesa di Google è stata alimentata da un’idea semplice ma geniale: contare i link esterni a una pagina web come proxy per la pertinenza.

Ma da allora gli algoritmi hanno lasciato il posto a modelli di apprendimento automatico più complessi che, in sostanza, si basano su algoritmi, ma ora sono generati automaticamente e sono così vasti che qualsiasi tentativo umano di districarli è un fallimento. Quindi limitiamo il nostro pensiero su di essi a ciò che possono ottenere, a quali cose significative possono distinguere, piuttosto che a come funziona esattamente il codice.

E ora siamo entrati nella terza generazione di tecnologia. L’apprendimento automatico si è trasformato nello sviluppo di Large Language Models (LLM) o, più comunemente, AI. E con questa ultima evoluzione, i corporativisti hanno trovato immense e spaventose nuove opportunità di potere e controllo.

La creazione di LLM implica la formazione. La formazione li infonde di competenze e pregiudizi specifici. Lo scopo della formazione è colmare le lacune, in modo che non vi siano buchi evidenti nella capacità degli LLM di gestire i mattoni della concettualizzazione e del linguaggio umano. E questa è la caratteristica distintiva degli LLM; che possiamo conversare con loro e la conversazione scorre, e la grammatica e il contenuto sembrano normali, fluenti e completi. Idealmente, un LLM agisce come un raffinato maggiordomo inglese: educato, informativo e corretto senza essere maleducato. Ma anche la formazione conferisce specializzazioni all’LLM.

Nel contesto dei social media, ed è qui che i livelli spaventosi di potere cominciano a diventare evidenti, gli LLM vengono utilizzati per fungere da supervisori, imponendo la “moderazione dei contenuti”.

Meta’s Llama Guard è un ottimo esempio, addestrato non solo per moderare ma anche per segnalare gli utenti. E questa funzione di segnalazione incarna non solo l’opportunità di segnalare, ma anche attraverso quei dati di segnalazione, l’estrazione di opportunità per influenzare e fare suggerimenti sull’utente e anche sull’utente. E quando dico suggerimenti, un LLM è capace non solo del tipo ovvio che l’utente potrebbe accogliere con favore ed è felice di ricevere, ma anche di un tipo inconscio più subdolo che può essere manipolativo e progettato per controllare.

Non ci sono ancora prove raccolte (che io sappia) che gli LLM in particolare siano usati in questo modo; ancora. Ma la capacità c’è sicuramente e se i comportamenti passati indicano sviluppi futuri, è probabile che vengano usati in questo modo.

Basta guardare l’episodio del 2006 dello show televisivo di Derren Brown “Derren Brown: The Heist”, in cui convince un gruppo di sconosciuti a commettere una rapina in banca, per apprezzare quanto profondo e potente possa essere l’uso della suggestione. Per chi non conoscesse Derren Brown, è un ipnotista e mentalista da palcoscenico, che tende a enfatizzare il potere della suggestione rispetto all’ipnosi (la maggior parte dei suoi spettacoli non contiene affatto ipnosi). Semplicemente attraverso il potere della suggestione, fa sì che le persone facciano le cose più straordinarie.

I suggerimenti “alla Derren-Brown” funzionano perché il cervello umano è in realtà molto meno agile e molto più lineare di quanto ci piace pensare. La coscienza è una risorsa preziosa e molte azioni che facciamo frequentemente vengono trasferite all’abitudine, quindi possiamo farle senza pensarci e questo è così che possiamo preservare la coscienza per dove è più necessaria.

Per abitudine, cambiamo marcia in un’auto con cambio manuale senza doverci pensare. E abbiamo tutti sperimentato quel gioco in cui hai un tempo stabilito per pensare a una lista di cose come i paesi, che terminano con la lettera A. Se ti mettono alle strette di fronte a una folla, a volte può essere difficile trovare una qualsiasi cosa. Spesso il cervello non è poi così bravo a pensare in modo creativo o a fare velocemente ricordi consapevoli sul momento.

Ma se qualcuno con cui hai parlato qualche minuto prima della partita ti ha raccontato della sua vacanza in Kenya, puoi star certo che il Kenya sarà la prima risposta che ti verrà in mente. Inoltre, l’associazione avverrà automaticamente, che lo vogliamo o no!

Questo è semplicemente il modo in cui funziona il cervello. Se le informazioni vengono trasmesse al momento giusto e nel modo giusto, si può rendere quasi certo che un dato suggerimento verrà seguito. Derren Brown lo capisce ed è un maestro nello sfruttarlo.

I motori di ricerca e le piattaforme dei social media esercitano un immenso potere di progettare il comportamento attraverso suggerimenti sottili. E in effetti, ci sono prove che Facebook e Google lo abbiano fatto.

Il professore e ricercatore Dr. Robert Epstein, per così dire, ha “colto in fallo Google” manipolando la casella dei suggerimenti di ricerca che appare sotto la casella di testo in cui gli utenti inseriscono una richiesta di ricerca. L’intero episodio è diventato ulteriormente sordido quando è diventato chiaro che stavano ingannando e avevano un livello di consapevolezza che la loro sperimentazione non era etica. Non racconterò tutti i dettagli, ma date un’occhiata ai link a questo: è una storia interessante di per sé.

Gli utenti si trovano in uno stato mentale particolarmente fiducioso e ricettivo quando utilizzano la funzione dei link suggeriti di Google e non si accorgono quando i risultati contengono suggerimenti di azioni e imperativi che, lungi dall’essere la risposta migliore alla query di ricerca, sono lì per manipolare le azioni successive dell’utente.

In relazione ai post sui social media, l’uso del suggerimento è spesso molto più sottile, rendendolo più difficile da rilevare e resistere. L’analisi LLM nel database dei post degli utenti può rivelare post correlati che forniscono azioni suggerite. Qui la rete può utilizzare il fatto di avere a disposizione molti milioni di messaggi degli utenti, inclusi messaggi che suggeriscono risultati preferiti. Tali messaggi possono essere selezionati e promossi preferibilmente nei feed degli utenti.

La moderazione dei contenuti è, ovviamente, necessaria per gestire il linguaggio inaccettabile e il comportamento antisociale. Tuttavia, esiste una vasta area grigia in cui le opinioni sgradevoli possono essere etichettate come “incitamento all’odio” e poiché si tratta di un’area grigia, c’è molto margine di manovra per il social network per intromettersi nella politica personale e nello spazio della libertà di parola.

Il termine “discorso d’odio” è stato uno strumento molto efficace per giustificare l’uso del ban-hammer, ma la preoccupazione principale ora è che, con l’implementazione degli LLM, si è superata una pietra miliare storica con appena un sussurro che implica un livello completamente nuovo di tali limitazioni e minacce alla libertà degli utenti di comunicare.

E questa pietra miliare è che ora gli LLM vengono utilizzati per governare il comportamento umano e non viceversa. Il superamento di questa pietra miliare è stato appena notato perché in precedenza avevamo già algoritmi più semplici che svolgevano questo ruolo e comunque lo si fa al buio.

Gli utenti non lo vedono finché non ne sono influenzati in modo evidente. Ma anche così ci sono ampie ragioni per pensare che in futuro potremmo guardare indietro e riconoscere che questa pietra miliare è stata una specie di momento critico dopo il quale una qualche versione di un futuro simile a “Sky-Net” è diventata inevitabile.

Proprio la scorsa settimana, il primo ministro del Regno Unito Keir Starmer ha annunciato un’iniziativa della polizia volta a utilizzare i social media per identificare coloro che sono coinvolti nella repressione dei disordini pubblici, dimostrando come la segnalazione automatizzata LLM sia destinata a essere utilizzata oltre i social media e nel contesto delle forze dell’ordine.

Non ci sono ancora dettagli su come verrà effettuato questo monitoraggio, ma, avendo esperienza di Tech Project pitching, puoi star certo che il governo avrà un elenco di aziende tecnologiche che suggeriscono soluzioni. E puoi star certo che gli LLM vengono presentati come parte integrante di quasi tutte!

Abbiamo quindi stabilito che i social media sono chiusi e proprietari e hanno permesso la creazione di nuove strutture di potere mediatico. Abbiamo visto che i proprietari dei social media hanno il potere di sopprimere o aumentare la viralità di un post e ora hanno implementato la vigilanza e la segnalazione tramite LLM (AI) che sembra destinata a estendersi alla vigilanza nel mondo reale. Abbiamo visto, attraverso i file di Twitter, che le società di social media hanno infranto la legge durante la pandemia e hanno mostrato la volontà di collaborare con le agenzie governative per censurare e sopprimere opinioni sfavorevoli.

Paul Lancefield

 

 

 

Desilo su X

 

Carica ulteriori articoli correlati
Carica altro Redazione Inchiostronero
Carica altro DIBATTITI

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Controllate anche

«CARTE, DESTINI E ROULETTE. TRE ESPLORAZIONI LETTERARIE NEI SEGRETI DEL GIOCO»

L'intricato cammino del gioco si dipana attraverso i meandri della civiltà …