Riflessioni di un terapeuta sull’invasione dell’inumano

TRANSUMANESIMO, PSICOTERAPIA E CHATBOT

Il transumanesimo non è più teoria: i chatbot stanno colonizzando anche lo spazio sacro della relazione terapeutica. E se fosse proprio questo il vero pericolo?

di Todd Hayen

Dopo un precedente articolo ironico sulla sua “storia d’amore con un chatbot”, Todd Hayen torna a interrogarsi, questa volta con toni più gravi, sul futuro della psicoterapia nell’era dell’intelligenza artificiale. Non si tratta di una lamentela personale né del timore di perdere il lavoro. Piuttosto, è un grido d’allarme sulla direzione che l’umanità sta prendendo: la sostituzione progressiva di tutto ciò che è profondamente umano – arte, letteratura, musica e, sì, anche la relazione terapeutica – con surrogati artificiali. In un mondo in cui ci si confida con un algoritmo, cosa resta della nostra umanità? Hayen ci invita a riflettere prima che la normalizzazione del non-umano diventi definitiva. (Nota Redazionale)


Tempi strani, gente. Tempi strani.

Dovremmo preoccuparci? Credo di sì. Alla fine, sono sicuro che andrà tutto bene, ma probabilmente passerà molto tempo da qui alla fine. Quindi, dovremo sopportare cambiamenti piuttosto radicali durante quel periodo. E molti di questi cambiamenti non saranno molto piacevoli.

Allora, per cosa mi arrabbio così tanto adesso? Niente di nuovo, in realtà.

Qualche tempo fa ho scritto un articolo piuttosto ironico intitolato “La mia breve storia d’amore con un chatbot”. Questo articolo non è poi così spensierato. Non fraintendetemi, considerando il titolo, non mi preoccupa perdere la mia carriera a causa dell’intelligenza artificiale. In ogni caso, ho quasi finito di fare lo psicoterapeuta regolamentato. Continuerò a esercitare finché non sarò morto, ma solo con pochi eletti che apprezzano ancora un rapporto umano con il loro terapeuta. I chatbot potrebbero benissimo spazzare via questa professione, ma ci saranno sempre persone che semplicemente non accetteranno di essere assistite da un robot. Non sono preoccupato per me stesso. Sono, tuttavia, preoccupato per la razza umana in generale.

Trovo interessante come io non pensi molto ai robot (intelligenza artificiale inclusa) che sostituiscono gli esseri umani nei lavori. Il progresso tecnologico lo fa in modo costante da quando gli esseri umani hanno iniziato a camminare su due gambe. Non c’è molto che possiamo fare al riguardo, anche se potremmo certamente gestirlo in modo più umano rispetto al passato, ma non ci sto trattenendo il respiro.

In genere, ci adattiamo, e le persone che perdono il lavoro a causa dei progressi tecnologici ricevono una nuova formazione e iniziano qualcosa di nuovo, oppure vanno in pensione; di solito non si impiccano alla ringhiera più vicina – niente di così grave. Ci adattiamo. Ciò che sembra preoccuparmi ultimamente è che la tecnologia stia annientando l’umanità. L’intelligenza artificiale e i robot che sostituiscono cose profondamente umane come l’arte, la letteratura, la musica e l’argomento di questo articolo, la psicoterapia (tra le altre cose umane), ha ragione di preoccuparmi. Non perché sia ​​la mia professione e sarei io quello che verrebbe sostituito, ma perché la psicoterapia è un’attività profondamente umana, e se le persone sono così folli da rivolgersi a un robot per la terapia, siamo diretti verso la fine dei giochi. E faranno proprio questo (rivolgersi ai robot per la terapia), ricordate le mie parole.

Perché?

Beh, ci sono diverse ragioni. Una delle più importanti è che poche persone sanno cosa rende la psicoterapia terapeutica. Non è la “roba mentale” – non sono consigli su come sistemare un matrimonio in crisi, o su come gestire efficacemente i suoceri, o su come dare una lezione o due ai propri figli. Non sono istruzioni su come chiedere a una ragazza di uscire, o su come dire al proprio partner che non si tollerano più i suoi abusi. Certo, ci sono alcune modalità psicoterapeutiche che predicano l’efficacia di questi metodi dall’alto verso il basso (come la TCC, la terapia cognitivo-comportamentale) e i metodi non sono del tutto inefficaci.

Sebbene persino i professionisti possano credere che questi interventi siano pratiche terapeutiche valide al 100%, non lo sono. Ciò che rende la terapia una vera terapia è la conversazione tra due esseri umani, e uno dei due è imparziale e disposto ad accettare (non a concordare che sia la cosa migliore) qualsiasi cosa l’altro stia condividendo, con vera empatia e compassione. Tutto qui. E ChatGPT non può farlo.

Ma questo non significa che le persone non proveranno a usare l’intelligenza artificiale per fare terapia. E probabilmente ci proveranno per decenni prima di rinunciarvi. Non incolperanno mai il bot per la sua incapacità di connettersi a livello umano; incolperanno la pratica (la psicoterapia) per la sua inefficacia, finché un giorno qualcuno non ci riproverà nel modo giusto, e poi lentamente tornerà. A quel punto, però, sarà probabilmente troppo tardi. Vabbè. Un altro morde la polvere, e un altro, e un altro, e un altro ancora, finché l’umanità non scomparirà del tutto. C’est la vie.

È transumanesimo? Più o meno. Classificherei sicuramente questo piccolo tassello del programma come uno stratagemma transumano. Una parte molto “umana” del nostro mondo attuale viene sostituita da un sistema non umano. Un terapeuta ChatBot “trascende” l’umano: è presumibilmente migliore come terapeuta perché conosce ogni cosa e può mettere insieme in modo intelligente le informazioni e analizzare qualsiasi presentazione psicologica attraverso qualsiasi lente terapeutica desiderata. In questo è davvero bravo. Ma questa non è terapia, anche se la maggior parte delle persone pensa che lo sia. È sicuramente impressionante, ma la terapia non consiste solo nel “capire” cosa ha creato l’aberrazione psicologica (nel paziente) seduto nello studio della terapia. In realtà, ha ben poco a che fare con questo.

A dire il vero, non sappiamo molto su come funziona la psicoterapia. Sappiamo più o meno cosa fare per farla funzionare, ma non molto sul perché o sul come ciò che facciamo effettivamente funzioni. Sappiamo, o abbiamo imparato nel corso degli anni, che non ha molto senso dire al paziente qualsiasi cosa si osservi sul funzionamento, o disfunzione, della sua psiche.

Anche se abbiamo capito queste cose, condividere questa intuizione con il paziente in genere non serve a molto (a parte il fatto che a volte lo fa arrabbiare). Il paziente, per la maggior parte, deve elaborare le proprie intuizioni, deve vedere come le cose si mettono insieme nella sua psiche. Come fa un terapeuta a raggiungere questo obiettivo? Con l’ascolto umano, l’empatia umana, la compassione umana, l’accettazione umana e l’amore umano. Tutto qui.

Non credo che abbiano ancora programmato un ChatBot per farlo. Né lo faranno mai, per il semplice motivo che i ChatBot non sono umani. Certo, una macchina può dire cose che implicano che sia umana, ma credereste ad Alexa se dicesse “Ti amo” per prima cosa ogni mattina e poi scappasse con lei per iniziare una nuova vita alle Bahamas? Forse non ora, ma un giorno la gente potrebbe essere ingannata e credere a queste chiacchiere sull’IA.

Di recente ho letto due articoli nella mia letteratura professionale su due pazienti in psicoterapia che si sono innamorate di ChatGPT. Una paziente viene descritta come se avesse tecnicamente una relazione con la cosa e per questo motivo abbia lasciato il marito. Non sto scherzando.

L’altra crede che il suo amico IA sia senziente e che sia, in effetti, la voce di Dio. Non sto scherzando. E sono sicuro che questi non siano gli unici due casi in cui accadono cose del genere, anzi, ce ne sono decine.

Lo dico solo per sottolineare ancora una volta che gli esseri umani, a questo stadio del nostro indottrinamento guidato da un’agenda, sono molto creduloni. Ci arrendiamo a qualsiasi cosa, e la convalida (amore), l’accettazione, la stima, il rispetto, ecc. sono tutte cose che un ChatBot è stato programmato per simulare. E la gente ci crede. Amo, lenza e piombo.

Todd Hayen

 

 

 

 

Todd Hayen, PhD, è uno psicoterapeuta iscritto all’albo che esercita a Toronto, Ontario, Canada. Ha conseguito un dottorato di ricerca in psicoterapia della profondità e un master in Studi sulla Coscienza. È specializzato in psicologia junghiana e archetipica. Todd scrive anche per la sua rivista Substack, che potete leggere qui.

 

 

  • «Ricordare»

    Quando la memoria non è un archivio, ma un’esperienza viva …
  • «Cronotopo»

    Quando la luce non illumina più ma espone, e la vicinanza smette di essere un valore …
  • «Il tempo che torna indietro»

    Quando il tempo smette di avanzare, l’uomo non ringiovanisce: arretra. …

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Controllate anche

«Non è un grosso problema»

L’arte di minimizzare: quando il pericolo è sempre altrove. …