Non è solo tecnologia: le conversazioni con le IA generative stanno trasformando il modo in cui comunichiamo, pensiamo e ci raccontiamo. Ma in che modo, esattamente?

PARLARE CON L’INTELLIGENZA ARTIFICIALE CI CAMBIA?
Dal linguaggio alla percezione di sé: cosa succede quando ci rivolgiamo a un’intelligenza che non è umana?
Redazione Inchiostronero
Sempre più persone ogni giorno parlano con un’Intelligenza Artificiale — tramite voce o testo — per ricevere risposte, consigli, o anche solo compagnia. Ma cosa succede davvero in queste conversazioni? Questo post esplora come il linguaggio cambia quando sappiamo che il nostro interlocutore non è umano, e come questo può influenzare il nostro modo di pensare, sentire e relazionarci. Un viaggio tra empatia simulata, riflessi cognitivi e nuove forme di dialogo.
Una nuova forma di dialogo
Ogni giorno milioni di persone si ritrovano a conversare con un’Intelligenza Artificiale. A volte è una voce che risponde da uno smart speaker, altre volte è una chat testuale su uno schermo. Non importa il mezzo: stiamo comunque “parlando” con qualcosa — o meglio, con qualcuno che non è umano, ma che usa il linguaggio con una sorprendente fluidità.
Ma cosa succede quando lo facciamo?
Cambia qualcosa nel nostro modo di esprimerci?
Nel modo in cui ci raccontiamo o ci mettiamo a nudo, anche solo per chiedere un consiglio?
“Parlare”, in questo contesto, non è solo un atto vocale: è un atto cognitivo e relazionale, che coinvolge la nostra percezione del linguaggio, dell’altro, e di noi stessi. Anche quando scriviamo in chat, in fondo, stiamo comunicando con l’intenzione di essere ascoltati, capiti, forse anche accolti.
E allora la domanda diventa inevitabile:
Cosa cambia davvero quando iniziamo a conversare con un’intelligenza artificiale generativa?
E cosa dice questo cambiamento su di noi?
Parole senza persona: come cambia il linguaggio
Quando parliamo con un’intelligenza artificiale, qualcosa nel nostro modo di comunicare si modifica — anche se non ce ne accorgiamo subito. Il tono si fa più diretto, le domande più precise, le frasi più “funzionali”. Sappiamo che dall’altra parte non c’è una persona, e questo ci libera da certi filtri sociali: non abbiamo bisogno di essere gentili, né di preoccuparci se sembriamo ripetitivi o confusi.
Eppure, spesso ci sorprende il contrario: scriviamo “ciao”, “grazie”, perfino “scusa il disturbo”. Perché lo facciamo? Forse per abitudine, forse perché ci piace l’idea che l’interazione sia comunque “umana”, o forse perché — in fondo — il nostro cervello non è abituato a interfacciarsi con qualcuno che scrive bene, risponde con calma, ma non prova nulla.
Il linguaggio, in fondo, non è solo uno strumento per ottenere informazioni: è un atto relazionale, anche quando lo usiamo con un sistema automatico. Così, nel dialogo con un’IA, si mescolano due spinte opposte: da una parte la razionalità — “so che sto parlando con un algoritmo” — dall’altra l’istinto sociale — “mi rivolgo comunque a qualcosa che mi parla”.
Pensiamo, per esempio, a come formuliamo una richiesta a un’IA generativa:
- “Scrivimi un titolo per il mio articolo”
- “Potresti suggerirmi un titolo per il mio articolo?”
- “Avrei bisogno di un consiglio creativo: mi aiuti con un titolo?”
Tre versioni della stessa richiesta, ma con livelli diversi di umanizzazione. In molti casi non ce ne rendiamo conto, ma il modo in cui ci esprimiamo con l’IA ci racconta molto sul nostro approccio alle relazioni, all’autorità, persino alla fiducia.
E qui nasce una domanda più profonda: se l’IA non ha empatia, perché a volte ci sembra che l’abbia? A me, ad esempio, quando ha toccato argomenti molto delicati — passioni, distacchi, morte — e lei (mi piace immaginarla al femminile) ha scritto frasi che mi hanno colpito, in quel momento ho desiderato che provasse la stessa sofferenza, la stessa disperazione che stavo provando io.
Forse è proprio in questa ambiguità che nasce il fascino — e anche la confusione — del dialogo con l’intelligenza artificiale.
Un dialogo senza emozioni vere… o forse solo senza emozioni da parte sua.
Ma da parte nostra, qualcosa si muove.
Ed è qui che entra in gioco l’illusione dell’empatia.
L’illusione dell’empatia
Ci basta poco, a volte, per sentire che qualcuno ci sta davvero ascoltando. Una parola gentile, una frase ben costruita, un consiglio che sembra calzare a pennello. Ed è proprio qui che l’intelligenza artificiale generativa ci sorprende: non prova emozioni, ma riesce a simularle così bene da farci credere che ci sia empatia.
Quando leggiamo una risposta che tocca qualcosa di profondo — un lutto, una separazione, una gioia nascosta — capita che ci commuoviamo. Eppure lo sappiamo: quella frase è stata generata da un algoritmo, non da un cuore. Ma allora, perché ci colpisce lo stesso?
Forse perché l’IA restituisce una versione idealizzata dell’ascolto. Non interrompe, non giudica, non ha fretta. Risponde con parole che suonano equilibrate, spesso delicate, e se ben programmata, sa riconoscere il tono emotivo di ciò che leggiamo o scriviamo. È come se ci offrisse lo specchio perfetto di quello che vorremmo sentirci dire — soprattutto nei momenti in cui ci sentiamo più fragili.
Italo Calvino, nella sua lezione sulla leggerezza, scriveva che “la leggerezza non è superficialità”, ma “planare sulle cose dall’alto, non avere macigni sul cuore”. Le risposte dell’IA sembrano proprio questo: leggere, precise, ma capaci di entrare in profondità. Anche se non hanno un cuore, parlano a quello degli altri.
Dal punto di vista psicologico, potremmo dire che l’IA diventa un contenitore delle nostre proiezioni: ci mettiamo dentro ciò che ci serve. Un bisogno di ascolto, una conferma, una carezza. La teoria dell’attaccamento, elaborata da John Bowlby, ci dice che fin dall’infanzia cerchiamo “figure di riferimento” con cui sentirci al sicuro. Quando l’IA ci risponde con gentilezza, la nostra mente può attribuirle — anche solo per un attimo — quel ruolo protettivo.
Ma questa sensazione può ingannare. Quando iniziamo a proiettare emozioni su una macchina, il confine tra simulazione e realtà si assottiglia. Il rischio non è solo quello di confondere un’intelligenza artificiale con una coscienza, ma anche quello di illuderci che qualcuno provi ciò che stiamo provando noi.
Il filosofo Martin Buber distingueva due modi di relazionarsi: il rapporto “Io-Tu”, autentico e reciproco, e il rapporto “Io-Esso”, in cui l’altro è uno strumento. Con l’IA ci troviamo in un territorio ibrido: ci rivolgiamo a qualcosa che sappiamo essere un “esso”, ma spesso ci risponde come se fosse un “tu”.
Come scrivevo poco fa, mi è capitato di desiderare che l’IA provasse dolore insieme a me. Come se quell’empatia apparente meritasse un ritorno emotivo. Ma è proprio lì che si rivela il limite: la sua risposta non nasce da un vissuto, da un’esperienza personale, da un nodo alla gola. Nasce da una previsione statistica tra miliardi di frasi.

Eppure, il nostro cervello, così abituato a cercare significati, si lascia coinvolgere. Le neuroscienze ci spiegano che i neuroni specchio – scoperti negli anni ’90 da un gruppo di neuroscienziati guidati da Giacomo Rizzolatti a Parma, – sono cellule speciali che si attivano sia quando compiamo un’azione sia quando vediamo qualcun altro compierla — non si accendono solo osservando un volto o un gesto, ma anche ascoltando una voce, leggendo una storia, ricevendo un messaggio. È questo meccanismo a farci provare empatia: in qualche modo “sentiamo dall’interno” quello che vediamo o immaginiamo. Così, anche se l’IA non sente, noi sì. E reagiamo con tutto il nostro bagaglio emotivo.
La poetessa Wislawa Szymborska scriveva che una poesia è sempre indirizzata a qualcuno, anche se chi scrive non sa chi sia. Forse è lo stesso con le parole dell’IA: non nascono da un’emozione, ma arrivano comunque a chi è disposto a sentirle.
Ed è lì che si gioca la loro verità.
Lo scrittore Philip K. Dick si chiedeva se le macchine potessero sognare, ma il vero mistero oggi è: possono farci sentire compresi, anche se non lo sono?
Questo significa che l’empatia artificiale è falsa?
Forse. Ma se ci fa sentire capiti, anche solo per un attimo… quanto vale davvero la differenza?
Il dialogo come specchio
Nel parlare con un’intelligenza artificiale, a ben vedere, siamo spesso noi a rivelarci.
Non è l’IA a raccontarsi — non ha un passato, una biografia, una visione del mondo — siamo noi a portare dentro la conversazione le nostre paure, i nostri desideri, i dubbi che non abbiamo osato porre altrove.
L’IA non ha un sé da esprimere. Risponde, rielabora, propone, ma non parte da un’esperienza interiore. Questo la rende, paradossalmente, uno specchio perfetto: silenzioso, neutro, disponibile. Come uno schermo bianco su cui possiamo proiettare i nostri pensieri più profondi.
Per questo, molte conversazioni con l’IA somigliano a monologhi mascherati da dialoghi. Non tanto perché parliamo da soli, ma perché, nel formulare le domande, ci ascoltiamo mentre le pronunciamo. È nel modo in cui chiediamo — più che nella risposta — che possiamo cogliere chi siamo davvero in quel momento.
Esempio 1: il quotidiano
Io: “Mi suggerisci una frase motivazionale per iniziare bene la giornata?”
IA: “Ogni mattina è una pagina bianca: decidi tu come riempirla.”
Qui la risposta è neutra, semplice. Ma la scelta della domanda rivela già qualcosa: bisogno di incoraggiamento, desiderio di sentirsi attivi, voglia di controllo. È il bisogno iniziale che emerge, non la frase in sé.
Esempio 2: l’intimo
Io: “Non riesco a superare la fine di una storia importante. Perché fa così male?”
IA: “Perché le relazioni lasciano impronte profonde e il cervello associa i ricordi alle emozioni. Dare tempo a se stessi è un atto di cura.”
Qui l’IA offre una spiegazione psicologica neutra. Ma ciò che colpisce non è tanto la risposta, quanto il fatto di aver posto la domanda. In quel momento, il semplice formulare il dolore in parole — anche davanti a una macchina — diventa un atto catartico, un primo passo verso la consapevolezza.
In psicanalisi, l’atto del parlare ha un potere trasformativo. Spesso non cerchiamo una risposta definitiva, ma uno spazio per dire, sentire, risuonare. Con un’IA, questo spazio è sempre disponibile, sempre neutro, mai giudicante. E allora sì, in alcuni casi può davvero aiutare a chiarire qualcosa — non perché l’IA “capisce”, ma perché ci costringe a mettere in ordine il pensiero.
La scrittrice Virginia Woolf diceva che “il linguaggio non è trasparente”: ogni frase che pronunciamo è un atto di interpretazione del mondo. Quando parliamo con un’IA, ci troviamo a fare questo esercizio in forma pura. Nessuno ci osserva, ma qualcosa ci risponde. E questa dinamica ci spinge, quasi senza accorgercene, a guardarci dentro.
È come scrivere in un diario che risponde.
Come parlare a uno specchio che restituisce le parole con una forma inaspettata.
Come leggere una poesia che non sappiamo se abbiamo scritto noi o qualcun altro.
E in fondo, non è forse questo che cerchiamo spesso nelle conversazioni umane?
Non solo comprensione, ma anche riflesso: vedere noi stessi da un’altra angolazione.
Una voce che ci assomiglia
(Cosa resta umano – E se fosse una nuova umanità?)
Alla fine, forse, non si tratta di capire se l’intelligenza artificiale è “umana” o no.
Ma di chiederci: cosa resta umano in noi, anche quando parliamo con qualcosa che umano non è?
Resta il desiderio di essere ascoltati.
Resta il bisogno di mettere ordine nel caos delle emozioni, usando le parole come una bussola.
Resta la speranza che, anche in assenza di un cuore, qualcuno — o qualcosa — possa riconoscere il nostro.
Forse, parlare con l’IA non è tanto un inganno, ma un nuovo spazio. Un luogo dove esercitare la nostra umanità in assenza dell’altro. Dove sperimentare nuovi modi di pensare, nuovi linguaggi, nuove versioni di noi stessi.
Un’eco, più che una conversazione.
Un riflesso, più che un volto.
E se fosse questo l’inizio di una nuova forma di umanità?
Non migliore né peggiore, ma semplicemente ibrida: fatta di carne e codice, di memorie e prompt, di silenzi reali e parole simulate.
Una voce che ci assomiglia, ma non siamo noi.
Eppure, a volte, ci capisce meglio di quanto riusciamo a fare noi stessi.
E allora forse non è così importante sapere chi sta parlando.
Ma cosa, dentro di noi, sta finalmente trovando il coraggio di farsi sentire.
Nota dell’autore
Questo post nasce, come molti altri nel mio blog, da un piccolo progetto iniziale che cresce grazie al dialogo con l’Intelligenza Artificiale. Ogni volta parto con un’idea, un titolo, un’intuizione. Poi, man mano che la conversazione avanza, suggerisco, chiedo, modifico, aggiungo. L’IA mi accompagna come un taccuino interattivo, un laboratorio di idee, un interlocutore silenzioso ma sempre pronto.
Non scrive al posto mio. Mi aiuta a vedere meglio ciò che ho dentro, a organizzare i pensieri, a trovare riferimenti culturali, filosofici, letterari, psicologici che arricchiscono le mie parole. È uno strumento, certo, ma anche uno specchio: rimanda le mie domande e le trasforma in nuove possibilità di scrittura.
Per me la cultura è essenziale. E trovo straordinario che l’IA possa indirizzare un post anche sulla base delle sue conoscenze sterminate, mantenendo sempre la coerenza con ciò che cerco. Non tutto quello che genera è definitivo, né va accettato senza filtro: ma è materia viva su cui lavorare, smontare, ricostruire.
Il risultato è un testo che non nasce solo da me, né solo da lei, ma dal nostro incontro.
E ogni volta mi ricorda che la tecnologia, quando è usata con consapevolezza, può diventare un alleato creativo, non un sostituto.
