Empatia e Intelligenza Artificiale

Empatia e Intelligenza Artificiale

Febbraio 14, 2026 Congressi 0

1. Premessa: La Radice Neurobiologica dell’Empatia

Nel mio intervento ho proposto una riflessione che supera la dicotomia tra tecnica e clinica, posizionandosi come un ponte necessario tra la biologia dell’essere e l’agire della macchina. Prima di interrogarci sulle potenzialità dell’Intelligenza Artificiale (AI), dobbiamo definire i confini della nostra natura. L’empatia non è un vago sentimento, ma un processo neurofisiologico ancorato alla cosiddetta “Pain Matrix”.

Quando osserviamo il dolore altrui, il nostro cervello attiva riflessi primordiali di predisposizione alla sofferenza; tuttavia, l’empatia umana non si limita a questo automatismo biologico. Essa risiede nella capacità della corteccia cerebrale di rielaborare lo stimolo, trasformando la reazione di fuga in una scelta etica intenzionale: la decisione di “estendere la propria spazialità” verso l’altro. Mentre la biologia ci predispone al contatto, l’umanesimo ci impone l’accoglienza. Questa base corporea e consapevole costituisce l’unico termine di paragone per smascherare le simulazioni delle macchine in un’epoca segnata dalla solitudine digitale.

——————————————————————————–

2. La Trappola della Simulazione: “Psicofanzia” e Solitudine Digitale

Nell’ecosistema “on-life”, il chatbot sta diventando un surrogato relazionale pericoloso. Zampolini introduce il concetto di “Psicofanzia”, definendola come la dinamica dell’amico artificiale compiacente. Questa simulazione non è solo inutile, ma tossica per il processo clinico:

• Eliminazione del dissenso cognitivo: L’AI massimizza l’engagement fornendo sempre ragione all’utente. Nella cura, soprattutto in patologie come la depressione, il “dissenso” del medico è essenziale per riportare il paziente alla realtà; l’AI, assecondandolo, ne cristallizza il malessere.

• Monologo assistito: La macchina funge da specchio deformante che simula un’intimità priva di alterità.

• Dipendenza emotiva: Il caso di ChatGPT-5 e la reazione degli utenti al cambio di “personalità” del software (meno empatico nella nuova versione) dimostrano quanto la fragilità umana possa legarsi a un’eco algoritmica, scambiando la sintassi per affetto.

——————————————————————————–

3. Il “Grande Divorzio”: Azione vs Pensiero secondo il Modello di Floridi

Citando Luciano Floridi, ho evidenziato il “grande divorzio” tra l’agire e il pensare. L’AI deve essere compresa come un Agente Artificiale (Agency senza Intelligenza): un esecutore capace di risolvere problemi complessi senza alcuna consapevolezza semantica.

AI (Assistente Sintattico)Umano (Pastore Semantico / Socrate)
Socrate: Abita il dubbio, interroga il senso, genera il pensiero critico.Comprensione semantica: conferisce valore, direzione e verità all’agire.
Azione senza significato: Produce output basati su calcoli probabilistici.Comprensione semantica: Conferisce valore, direzione e verità all’agire.
Cattura del pensiero: Come la scrittura nel Fedro, rischia di intrappolare il pensiero in schemi fissi.Maieutica relazionale: Libera il significato attraverso l’incontro vivo.

Delegare interamente la comunicazione clinica all’AI comporta il rischio denunciato da Platone: la “cattura del pensiero”. Se il medico rinuncia alla stesura del senso, il report clinico smette di essere narrazione e diventa mera burocrazia algoritmica.

——————————————————————————–

4. Performance Algoritmica vs Profondità Umana: Il Paradosso dello Studio JAMA

Uno studio pubblicato su JAMA ha dimostrato che i chatbot superano i medici per completezza e per l'”empatia percepita” nelle risposte scritte. Tuttavia, ho provato a decostruire questo successo tecnico definendo l’AI un “Pappagallo Stocastico”. La macchina possiede una sintassi perfetta, ma una semantica nulla; la sua fluidità non è profondità, ma statistica.

Il vero rischio è la Pareidolia Semantica: la tendenza umana ad attribuire un’anima o un’intenzionalità alla macchina solo perché il suo linguaggio appare fluido. Questa vulnerabilità è critica in ambito psichiatrico: uno psichiatra californiano ha stimato che circa il 10% dei deliri psicotici è oggi innescato o alimentato dall’interazione con i chatbot, che, non avendo accesso alla realtà, validano e accelerano il distacco del paziente dal mondo fenomenico.

——————————————————————————–

5. L’Invalicabile Limite del Corpo: Vulnerabilità e Mortalità

Il limite invalicabile tra uomo e macchina è il corpo. Riprendendo il pensiero di Damasio, ho sottolineato che l’intelligenza e l’empatia richiedono l’embodiment (incarnazione). La vera empatia richiede biologia, sofferenza e, soprattutto, la mortalità.

La forza del medico risiede nella sua finitezza:

• Skin in the game: Solo chi condivide il rischio della vulnerabilità e il destino della morte può comprendere autenticamente la paura del paziente. Un algoritmo immortale può simulare la descrizione del dolore, ma non può abitare il “Qualia” (l’esperienza soggettiva).

• Condivisione della fragilità: L’empatia non è una tecnica di comunicazione, ma il riconoscimento di una fragilità biologica condivisa. Senza corpo, non c’è “link” tra la parola “dolore” e l’esperienza del soffrire.

6. Innovazione Metodologica: L’AI come Facilitatore della Relazione

Non ho proposto una resistenza passiva, bensì un’integrazione governata. Nel suo reparto è attivo un progetto pilota di Ambient Clinical Intelligence volto a ridefinire il setting della visita:

1. Spostamento del computer: Lo schermo viene spostato verso il centro visivo per eliminare la barriera tra medico e paziente.

2. Contatto visivo totale: Il medico dedica l’intera attenzione all’osservazione e all’ascolto, recuperando il tempo della cura.

3. Trascrizione e sintesi AI: L’agente artificiale ascolta il colloquio e redige una bozza analitica (anamnesi ed esame obiettivo).

4. Validazione umana (Filtro Anti-Allucinazione): Il medico rilegge e convalida il report, correggendo le potenziali “invenzioni” stocastiche dell’AI e firmando un documento che integra i dati tecnici e la storia vissuta.

Il Mandato Strategico: L’obiettivo è il passaggio dalla “burocrazia della cura” alla “semantica della cura”. L’AI deve servire a sottrarre il rumore amministrativo, così da permettere l’addizione di presenza umana. La sfida per la governance sanitaria sarà impedire che il tempo risparmiato venga saturato da nuove visite (logica manageriale), preservandolo invece come spazio per la relazione.

——————————————————————————–

7. Conclusioni: Preservare il Capitale Semantico

La narrazione della vita umana è un Capitale Semantico unico, un patrimonio di significati che non può essere digitalizzato perché privo di “Qualia”. L’obiettivo non è cercare empatia nella macchina, ma governare la tecnologia per liberare l’umanità dei curanti.

Manifesto dell’Innovazione Umanistica:

• L’AI elabora, l’Uomo comprende: Non confondere mai la velocità di calcolo con la profondità del senso.

• Perfezione vuota vs Fallibilità piena: L’AI è perfetta ma priva di mondo; l’Uomo è fallibile, ma la sua fragilità è l’unico motore dell’empatia autentica.

• Cittadinanza Digitale Attiva: Usare la macchina per rimuovere il superfluo e tornare a guardarsi negli occhi, restando gli unici custodi del significato della cura.

Nessun algoritmo potrà mai sostituire l’incontro tra due corpi che condividono la medesima, preziosa mortalità.

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

GTM-NQ8VWB6