Un saggio sull’hype tecnologico e l’etica della lettura della mente

CHI VUOLE UN’INTERFACCIA BRAIN MACHINE?


Un saggio sull’hype tecnologico e l’etica della lettura della mente

Non ho mai voluto essere in grado di controllare nessuno dei miei dispositivi con i miei pensieri. Sono perfettamente felice di utilizzare un’interfaccia fisica che posso spegnere, lasciare andare o allontanarmi. E tu? La tua tastiera ti trattiene? Il tuo mouse ti sta rallentando? Vuoi solo pensare a un post senza doverlo sfogliare? Perché la tecnologia cyborg viene spinta così duramente su di noi?

Qualcuno l’ha chiesto? Qualcuno ne ha bisogno?

In questo saggio, esaminerò gli esperti di etica che stanno sollevando preoccupazioni sulla tecnologia Brain Machine Interface (BMI), la cui utilità prevista sarebbe la capacità di scorrere con la mente e fare clic con le onde cerebrali. Francamente, non vedo una richiesta per questo, nemmeno per le persone paralizzate, dal momento che abbiamo interfacce prive di chirurgia cerebrale, come quelle usate da Stephen Hawking. Inoltre, vogliamo davvero che i nostri tweet di rabbia impulsiva vengano inviati all’istante?

No, no, no. Non è lì che sta andando questa tecnologia. Nessuno vuole che il BMI svolga compiti ordinari in un modo nuovo, soprattutto se ciò significa indossare uno strano casco tutto il giorno o sottoporsi a un intervento chirurgico al cervello. La carota e il bastone qui sono la promessa di   capacità mentali potenziate.

Sembra che ci sia una campagna di paura coordinata per convincerci che, da un momento all’altro, le legioni di cyborg AI transumane supereranno le nostre prestazioni mentali. Quindi tutti dovranno ottenere un indice di massa corporea solo per tenere il passo. Sfortunatamente, quando lo faremo, i nostri cervelli saranno leggibili da chiunque disponga del software giusto e non saremo in grado di distinguere tra le nostre decisioni e quelle impiantate nelle nostre teste tramite dispositivi wireless.

I neuroetici suggeriscono che dobbiamo agire in fretta, forse anche riscrivere le nostre Costituzioni!

Trovo che i loro nuovi suggerimenti sui neurodiritti siano progettati, non tanto per proteggerci quanto per limitare i modi in cui potremmo essere violati per il bene superiore. I neuroeticisti sono lupi travestiti da agnello. Vediamo se sei d’accordo con la mia valutazione.

Per un contesto più ampio, diamo prima un’occhiata a ciò che è noto come il “problema del carrello” nel campo dell’etica. Supponiamo che un uomo stia azionando la stazione di scambio in un deposito ferroviario. Se un carrello ferroviario in fuga sta per arare cinque lavoratori su un binario, è moralmente obbligato a tirare la leva per deviare il carrello in modo che uccida un solo lavoratore su un altro binario?

Potresti notare che ho apportato una modifica significativa all’immagine standard, questa ripresa da Wikipedia, raffigurante questo dilemma. Il mio centralino non agisce sotto la sua agenzia. È un rappresentante del governo, che agisce secondo una politica o una procedura standard. Ecco perché è raffigurato con un edificio governativo alle sue spalle. Questo cambiamento cambia tutto. Secondo il protocollo, deve uccidere un tizio per salvarne cinque.

Ma quando le azioni sono automatizzate, non c’è agenzia e, quindi, ciò che l’uomo fa non può essere descritto come la scelta di agire eticamente. Gli esperti di etica dei tempi antichi, ad esempio Tommaso d’Aquino o Kant, sostenevano che la moralità deriva dall’agente che decide liberamente l’azione, ma oggi l’idea che un individuo ha la responsabilità (non la libertà, non il diritto, ma la responsabilità) di scegliere tra giusto e sbagliato è quasi scomparso dalla discussione sull’etica.

Jose Munoz è con il gruppo Mind-Brain in Spagna, è anche all’Harvard Medical e in pochi altri posti davvero importanti. Esaminando  il lavoro di una collega, Nita Farahany, riassume l’approccio dei neuroeticisti di oggi a un T. Sostiene che dobbiamo “stabilire linee guida per i diritti neurali”. (Linee guida, sembra gentile, ma mi chiedo se avranno il tipo di potere delle linee guida CDC, che sono state implementate con tutta la forza della legge).

Munoz afferma che è necessario discutere tra accademici, governi, aziende e pubblico. (Mi chiedo chi parlerà nella discussione?) Dice che ai “cittadini” deve essere garantito l’accesso ai propri dati. (Va bene, devo fare i salti mortali per scoprire quali dati sono stati raccolti su di me a mia insaputa o senza il mio consenso, e poi cosa?)

Noto l’uso della parola “cittadini” al posto di esseri umani o persone.

Non vuole che dimentichiamo che, in quanto cittadini, siamo sudditi di uno Stato. Crede inoltre che “un’alfabetizzazione attorno a tali dati debba essere coltivata”, che è un modo da donnole per dire alle persone che devono sapere cosa pensare della raccolta dei dati.  Quando è stato chiesto alle persone di acconsentire alla raccolta dei dati? La possibilità di rifiutare del tutto   la raccolta di dati non rientra in questo menu di politiche etiche.

Al giorno d’oggi, gli esperti di etica sembrano semplicemente presumere che alla fine lo stato debba prendere quelle decisioni sull’etica, basate sul consenso, ovviamente. Quindi va bene perché è una perdita democratica di agenzia. Presto l’intelligenza artificiale ottimizzerà queste decisioni per noi, ci viene detto. Il singolo essere umano è diventato un mero strumento attraverso il quale vengono eseguite le scelte “etiche” di qualcun altro. Questo non è etico. Questo è pericoloso.

Possiamo adattare il problema del carrello alla questione se l’individuo debba o meno fare sacrifici personali per il bene della società. L’illustrazione qui sotto mostra il tipo di logica che dice che le persone dovrebbero rischiare la vita in guerra per il bene del loro paese, o prendere un vaccino che comporta qualche rischio perché è necessario per l’immunità di gregge.

In questo saggio, non sosterrò che l’individuo ha il  diritto  di essere egoista e decidere di non fare sacrifici personali per il presunto bene degli altri. Non è per questo che dobbiamo dare valore alla responsabilità individuale rispetto al bene collettivo. Apprezziamo la responsabilità individuale perché, se gli individui sono costretti, costretti o corrotti a fare sacrifici per il bene collettivo, c’è un grave pericolo che l’entità che ha il potere di imporre la politica possa usare quel potere per danneggiare, involontariamente o intenzionalmente.

Almeno quando viene concessa la responsabilità individuale, più cervelli vengono applicati ai problemi e ci saranno più opportunità per trovare buone soluzioni. Vogliamo davvero fare la guerra? I vaccini sono davvero sicuri ed efficaci? Inoltre, gli errori che un individuo può commettere sono solitamente confinati in una ristretta cerchia. Gli errori commessi da un politico colpiscono l’intera popolazione.

Dopo un incubo di tre anni, in cui non sono stati fatti errori – per citare la poesia di Margaret Anna Alice con quel titolo, accusando i “filantropati” e altri leader di democidio intenzionale – dovremmo essere scettici nei confronti di eventuali “eticisti” che chiedono ulteriori sacrifici da noi a ulteriori nozioni di policymaker di un bene superiore. Per quanto riguarda la C0vlD, si sta sviluppando il consenso sul fatto che abbiano sbagliato tutto: i blocchi, il mascheramento e l’isolamento, il rifiuto del trattamento precoce e i farmaci riproposti e la promozione di un vaccino sperimentale.

Ultimamente, si sente molto parlare della necessità di ridefinire i diritti umani mentre il panorama sociale si adatta alle nuove tecnologie che stanno cambiando ciò che significa essere umani. Si afferma che è necessaria una nuova “etica del transumanesimo” per salvarci dai pericoli di hacker o governi e società che potrebbero voler impiegare l’intelligenza artificiale per leggere i nostri pensieri e controllare le nostre menti.

Ienca e Andorno, autori di “Towards a New Human Rights in the Age of Neuroscience and Neurotechnology”, notano quante informazioni vengono raccolte sugli utenti di Internet ora, e presumono che la nuova tecnologia raccoglierà anche dati sul cervello. Questi sono i tipi di considerazioni etiche su cui meditano:

“Per quali scopi e in quali condizioni è possibile raccogliere e utilizzare le informazioni cerebrali? Quali componenti delle informazioni cerebrali devono essere legittimamente divulgate e rese accessibili ad altri? Chi può accedere a tali dati (datori di lavoro, assicurazioni, Stato)? Quali dovrebbero essere i limiti al consenso in questo ambito?”

Non menzionano nemmeno l’argomento più ovvio secondo cui qualsiasi raccolta di dati online potrebbe essere considerata una violazione della privacy. Stranamente, il primo diritto di cui discutono in questo articolo è il diritto degli individui di decidere di utilizzare le neurotecnologie emergenti. Nelle loro discussioni, si presume anche che le nuove tecnologie faranno ciò per cui sono pubblicizzate. Nessuna discussione sulla necessità di studi a lungo termine o test per possibili errori tecnologici. Dovremmo ricordare che l’autorizzazione all’uso di emergenza per il vaccino contro la COVLD era giustificata perché si diceva che le persone dovrebbero avere il diritto di utilizzare la tecnologia non testata se lo desiderano.

Nella sua discussione sui neurodiritti promossi in Cile, Whitney Webb  osserva  che i poveri e gli emarginati vengono introdotti in prima fila nella linea di volontari per il processo BMI.

Mi capita di pensare che gli adulti dovrebbero essere in grado di optare per nuove terapie, possibilmente pericolose, ottenere protesi mammarie doppia D, suicidarsi, fare eroina, lavorare come prostitute o castrarsi, se lo desiderano liberamente. Ma non credo sia etico incoraggiare o consentire a qualcuno di commettere atti di autolesionismo. Una società etica generalmente cerca di aiutare le persone a capire che potrebbero avere altre opzioni. Non vogliamo incoraggiare le persone a correre rischi, certamente non inutili.

Ienca e Andorno ci informano anche che…

La maggior parte dei diritti umani, compresi i diritti alla privacy, sono relativi, nel senso che possono essere limitati in determinate circostanze, a condizione che alcune restrizioni siano necessarie e rappresentino un modo proporzionato per raggiungere uno scopo legittimo. Trattandosi specificamente del diritto alla privacy, la Convenzione europea dei diritti dell’uomo afferma che tale diritto ammette alcune restrizioni «per la prevenzione di disordini o reati, per la protezione della salute o della morale, o per la protezione dei diritti e delle libertà altrui ‘ (art. 8, comma 2).”

Sembra che gli europei non abbiano diritti alla privacy; hanno privilegi che possono essere revocati ogni volta che lo Stato lo ritenga necessario.

È risaputo che il milionario Elon Musk, rinunciando alle sue pretese di libertarismo, vuole che i regolamenti governativi sull’IA, anche se sta pubblicizzando la sua invasiva tecnologia di intelligenza artificiale Neuralink, vengano impiantati irreversibilmente nei cervelli umani per poterli leggere. Finora i primati di prova  non sono andati molto bene e lo  Show & Tell dell’autunno 2022  è stato deludente all’estremo. Un problema, tra i tanti che hanno avuto, è stato che gli schemi delle onde cerebrali del primate per una particolare lettera che l’IA ha appreso un giorno, si sono trasformati in uno schema diverso cinque o sei giorni dopo.

Molto tempo fa, Eraclito aveva già capito che non si entra mai due volte nello stesso fiume. Tutti i processi biologici sono dinamici e sempre in movimento, specialmente le onde cerebrali emergenti; devono esserlo perché anche il mondo lo è. Gli esseri viventi devono continuare a cambiare solo per rimanere più o meno gli stessi. Gli algoritmi informatici, nemmeno quelli di Deep Learning, non sono plastici come le onde cerebrali.

Sin dai tempi di quell’imbronciato Show & Tell, a Neuralink  è stato negato  il permesso di depredare soggetti umani, per il momento. Ma dubito che ciò impedirà ai soldi cattivi che sono stati lanciati in questa tecnologia di attrarre altri soldi buoni. Gli investitori devono recuperare i soldi della loro pompa prima di scaricare. La FDA arriverà.

Non sono contrario al progresso tecnologico transumano che aiuta le persone a superare le difficoltà. Le braccia bioniche sono fantastiche e persino la rigenerazione degli arti sembra un’ottima idea da perseguire, con attenzione. Ma qualcosa non va in questa discussione sulla tecnologia dell’IMC e sui neurodiritti.

Quest’anno, Nita Farahany, professoressa di diritto e filosofia e autoproclamatasi nueroetica alla Duke University, ha promosso il suo nuovo libro, The Battle for Your Brain: Defending the Right to Think Freely in the Age of Neurotechnology, che non difende nulla del tipo. In questo libro, non fornisce una guida per aiutare le persone a prendere le migliori decisioni etiche per se stesse e le loro famiglie. Sta cercando di vendere norme etiche da imporre a tutti noi.

Nel suo libro, e in un discorso  a una riunione del World Economic Forum a Davos, Farahany si esprime con una lingua biforcuta. Ad esempio, pur difendendo inizialmente l’idea di privacy mentale e “libertà cognitiva” (Oh, fratello, devono inventare nuovi termini così imbarazzanti?), ammette rapidamente che non è un diritto assoluto, perché, dopo tutto, una delle cose più basilari che facciamo come esseri umani è cercare di capire cosa pensano i nostri simili. Dobbiamo trovare un equilibrio, sostiene Farahany, tra interessi individuali e sociali. Ciò significa che i responsabili politici possono decidere a quali diritti rinunciare.

Ad esempio, afferma che potrebbe essere una buona idea far indossare ai camionisti dispositivi EEG per monitorare la fatica, per il bene collettivo. Se si addormentano al volante, potrebbero potenzialmente uccidere cinque o sei persone. Posso suggerire invece che i camionisti siano pagati ragionevolmente bene per il lavoro che svolgono, in modo che non vogliano guidare più di otto ore al giorno? In alternativa, possiamo sottoporre i nostri rappresentanti politici a una sorveglianza costante di tutte le loro e-mail, telefonate e persino conversazioni di persona? Perché le loro decisioni potrebbero potenzialmente uccidere milioni di persone.

Farahany elogia i dispositivi personali che monitorano i dati biologici per il loro potenziale di fornire ai lavoratori dati quantitativi sulle loro prestazioni in modo che possano fare “auto-miglioramenti informati”. Il fatto che FitBits sia così popolare, afferma, indica che le persone sono entusiaste di essere monitorate e valutate. Ma sono abbastanza sicuro che i magazzinieri di Amazon non chiedano a gran voce dispositivi di neurofeedback che li aiuteranno a essere più redditizi per gli azionisti.

Il monitoraggio forzato e la valutazione quantitativa fasulla non sono etici, credo.

Farahany ammette che tale monitoraggio dovrebbe essere volontario e ritiene che i dipendenti vorranno accettare questi dispositivi per il proprio miglioramento. Oggi abbiamo qualcosa di simile con l’assicurazione auto; le persone ottengono tassi più bassi se accettano di essere monitorati durante la guida. Ma ogni volta che viene offerta una ricompensa per il sacrificio della privacy, non è etico. È coercitivo. È più probabile che i poveri si sottomettano rispetto ai ricchi.

Il monitoraggio delle prestazioni dei dipendenti è utile?

Come sostiene Yagmur Denizhan   in “Educazione simulata e tecnologie illusorie”, quando le persone vengono messe in situazioni in cui vengono giudicate in base ai punti guadagnati, non in base a valutazioni qualitative più generali e olistiche, i furbi si concentrano rapidamente sul gioco del sistema in modo da poter guadagnare più punti, con meno sforzo e lavoro di qualità inferiore. Ma Farahany non mette mai in discussione il presupposto che sottoporre i dipendenti a feedback negativi e positivi sia positivo per la produttività

Nel frattempo, la propaganda allarmistica continua ad arrivare fitta e veloce.

Ho consultato la ricerca menzionata in questo articolo di Vox  . Il progetto Facebook è presso l’Università della California, San Francisco. Lo  studio  ha coinvolto tre partecipanti a cui erano già stati impiantati elettrodi nel cervello, come parte della preparazione alla neurochirurgia per il trattamento delle crisi epilettiche.

Per elaborare il loro algoritmo per leggere i pensieri delle persone, gli scienziati hanno dovuto addestrare l’intelligenza artificiale, cosa che hanno potuto fare, grazie all’impianto che ha dato loro un’immagine dei modelli cerebrali. Hanno posto domande ai pazienti e modellato i loro modelli di risposta utilizzando l’intelligenza artificiale. In questo esperimento, il contesto dei pensieri era ben definito. Ad esempio, ai soggetti è stato chiesto: “Com’è la tua stanza?” e avevano risposte limitate come “freddo”, “caldo” o “bene”.

Dopo aver letto di questi presunti miracoli tecnologici, mi sembra che l’affermazione secondo cui questa nuova interfaccia potrebbe “raccogliere pensieri direttamente dai tuoi neuroni e tradurli in parole” sia un po’ un’esagerazione. I soggetti avevano gli elettrodi in testa e la precisione dell’IA, con un intenso allenamento mirato, era al massimo del 60%.

La mezza dozzina di neuroeticisti che ho letto preparando questo saggio, incluso Farahany, insistono sul fatto che esistono già tecnologie   che hanno il potere di decodificare i nostri pensieri e controllarli. La tecnologia che citano come esempi sono EEG, fMRI e Deep Brain Stimulation. Ho seguito i loro collegamenti a dozzine di studi e poi ho letto gli studi citati, come se fossi in una caccia al tesoro, e sono stato ripetutamente deluso dai risultati effettivi.

Con un dispositivo EEG puoi raccogliere schemi che, se decodificati, potrebbero darti un’idea dello stato emotivo del soggetto. Rilevi onde gamma o onde alfa? Il soggetto è concentrato o in uno stato di sogno, ansioso o rilassato?

Nel suo discorso al WEF menzionato sopra, Farahany fornisce utilmente questo grafico di volti diversi per illustrare i diversi stati emotivi che un dispositivo EEG potrebbe rilevare. Perché non basta guardare il volto del soggetto per leggere la sua emozione?  Perché le persone, come Winston Smith, potrebbero cercare di nascondere i propri sentimenti e i nostri oligarchi non lo vogliono?

Gli EEG non leggono la mente. Questo è clamore, forse per attirare investimenti. Questa è la mia ipotesi meno cinica sulle loro motivazioni. Credo che i dipartimenti di ricerca e sviluppo sperino che, se riescono a convincere le persone a indossare dispositivi EEG mentre sono online e anche a registrare il tipo di attività che stanno eseguendo, possono iniziare ad abbinare le attività ai modelli EEG utilizzando l’intelligenza artificiale. Buona fortuna. Essendo un dispositivo non invasivo per raccogliere schemi cerebrali, l’EEG non fornisce dati validi. Non puoi proprio dire molto da esso.

Diamo un’occhiata alla fMRI. Si tratta di macchinari molto specializzati che si trovano solo negli ospedali e la sovraesposizione comporta alcuni rischi. In questo momento è l’unico strumento in grado di visualizzare la tua attività cerebrale in 3D (una micro fetta alla volta) per avere un’idea degli schemi che il tuo cervello crea quando pensi a cose specifiche o svolgi attività specifiche.

Secondo uno  studio  del 2007 di Haynes et al., “Reading Hidden Intentions in the Human Brain”, ancora ampiamente citato dai neuroeticisti, i ricercatori hanno inserito otto soggetti in macchine fMRI e hanno registrato i cambiamenti nei modelli cerebrali mentre venivano presentati con due numeri e detto di decidere se sommarli o sottrarli. Quando hanno deciso quale delle due operazioni eseguire, i modelli cerebrali sono stati analizzati dall’intelligenza artificiale fino a quando non ha trovato una differenza tra le decisioni. Dopo questo periodo di formazione, i ricercatori hanno testato il loro modello di intelligenza artificiale. Sono stati in grado di dire quali scelte avevano fatto i soggetti, se aggiungere o sottrarre, con una precisione di circa il 20% migliore rispetto a un’ipotesi casuale.

Intendiamoci, questa è una situazione in cui tutti gli altri possibili pensieri e decisioni sono stati intenzionalmente soppressi e i soggetti si sono concentrati solo su una semplice scelta. Il 20% migliore del casuale non mi impressiona, soprattutto date le circostanze altamente artificiali. Dal momento che non abbiamo un modo sicuro per monitorare i pensieri delle persone tutto il giorno per addestrare l’intelligenza artificiale, e la maggior parte di noi non passa molto tempo nelle macchine fMRI, direi che siamo abbastanza al sicuro dalla minaccia della lettura della mente, per almeno il momento.

Diamo un’occhiata alla stimolazione cerebrale profonda.

La DBS viene utilizzata principalmente per il trattamento di malattie motorie come il morbo di Parkinson. Invia impulsi elettrici in profondità nel cervello e i ricercatori stanno cercando di farlo in modo che il paziente possa modificare la quantità e il tempo degli impulsi. C’è qualche indicazione che potrebbe fare del bene. La DBS è anche studiata per trattare il disturbo ossessivo compulsivo, la depressione, la dipendenza e il dolore. Ma come avverte la Michael J. Fox Foundation for Parkinson’s Research,   la DBS può alleviare parzialmente alcune condizioni, ma gli effetti collaterali includono problemi di pensiero e memoria.

Questo dispositivo ripropone la vecchia tecnologia dei pacemaker cardiaci. Quel monitor nell’immagine sopra è in realtà impiantato all’interno del corpo della persona. Il cavo scorre all’interno del collo e l’elettrodo è come un chiodo rivestito di poliuretano, che tende a causare infiammazioni. Leggendo questa recensione del 2020 su Nature Neurology , ho capito che l’efficacia della DBS è difficile da valutare. L’esatto posizionamento dell’elettrodo è cruciale ma difficile da determinare, e il meccanismo d’azione, se c’è beneficio, non è ben compreso. Non mi sembra che questo dispositivo invasivo avrebbe dovuto superare un comitato di revisione della bioetica.

La mia impressione è che questa tecnologia sia principalmente investigativa e sperimentale. L’espansione delle sue applicazioni oltre l’uso nelle persone anziane con grave malattia di Parkinson non sembra giustificata. In questa recensione, nessuna di queste preoccupazioni etiche è stata sollevata. Menzionano, tuttavia, che i dispositivi BDS di nuova generazione sono stati progettati come controllabili via WiFi in modo che i pazienti non abbiano bisogno di quell’orribile impianto di monitor. Ma questo renderà i pazienti vulnerabili al “brainjacking” e gli hacker potrebbero manipolare gli stati emotivi.

Speriamo che la nuova forma wireless di DBS non sia ampiamente applicata per il trattamento della semplice depressione o del disturbo ossessivo compulsivo.

Quindi, per concludere, non sembra vero che siamo sul punto di sviluppare una tecnologia che consentirà alle persone di leggere le nostre menti o che consentirà all’IA di controllare i nostri pensieri. Non ci siamo ancora. Neanche vicino. Quindi sorge la domanda: perché questi esperti di etica stanno facendo una campagna per nuove linee guida per minacce inesistenti? Perché non parlano di proteggere le persone dalla già esistente minaccia di perdita della privacy online?

Temo che il BMI venga spinto per ragioni simili a quelle che hanno permesso il lancio del vaccino sperimentale. I ricercatori volevano testare le tecniche di terapia genica su un’enorme popolazione per far avanzare quel campo.

Allo stesso modo, penso che il pubblico si stia preparando ad essere ansioso di testare il BMI per far avanzare quel campo. Come potrebbe qualcuno approvare un piano del genere? Anche se fosse per il bene superiore dell’umanità precipitarsi nel futuro transumano, vogliamo sacrificare molti individui senza un consenso pieno e informato per arrivarci?

Purtroppo, oggi l’“etica” è determinata dai potenti e imposta al popolo. E se, invece, l’individuo avesse il diritto e la responsabilità di prendere tutte le decisioni etiche e subirne le conseguenze o raccoglierne i benefici? Non ho offerto molte opinioni sul fatto che questa o quell’azione sia etica o meno. Mi sono concentrato principalmente sull’idea che le decisioni etiche, su ciò che gli individui sono disposti a rischiare, non dovrebbero mai essere imposte da altre persone più importanti.

In effetti, sto iniziando a mettere in discussione tutte le cosiddette “regolazioni” da parte delle agenzie governative. Sembra che tutte le linee guida etiche e le norme di sicurezza “per il bene superiore” potrebbero essere solo modi per legalizzare potenziali danni all’individuo a beneficio di pochi.

VN Alexander

 

VN Alexander , PhD è docente presso  IPAK-EDU e sta pensando di insegnare nuovamente il suo corso sugli argomenti del transumanesimo nell’autunno del 2023. Puoi leggere altro del suo lavoro nel suo subStack.

 

 

 

 

 

 

 

Carica ulteriori articoli correlati
Carica altro Redazione Inchiostronero
Carica altro DIBATTITI

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Controllate anche

«ALLARMI SIAM FASCISTI»

In futuro nessuno potrà dire “non sapevo” …