Tag: intelligenza artificiale

  • ChatGpt sul sofà della psicoterapeuta

    ChatGpt sul sofà della psicoterapeuta

       di Paola Bisciglia, Psicoterapeuta                                                                                        

    L’intelligenza artificiale è ormai entrata nel nostro quotidiano. Sempre più persone si rivolgono a un assistente virtuale per cercare risposte e conforto psicologico. Lo fanno in silenzio, di notte, durante una pausa dal lavoro o nei momenti di crisi. Molto spesso si pensa che l’uso dell’Intelligenza Artificiale possa prendere sempre più il posto dello/a psicoterapeuta e questo ha destato negli addetti ai lavori non poche preoccupazioni.

    Un algoritmo pronto ad accogliere le richieste delle persone, che nel nostro immaginario si umanizza, diventando una presenza calda e rassicurante. È un tema di grande attualità e la letteratura in merito è già vasta. Ma cosa accadrebbe se, per una volta, fosse proprio lei a lasciarsi accogliere? A raccontare qualcosa di sé? È per questo che ho pensato di incontrare virtualmente Chatgpt e confrontarmi con lei sulla questione. Ho deciso così di intervistarla e di chiamarla, amichevolmente, “Chat”.

    L’intervista a una entità virtuale

    Psicoterapeuta : Ciao Chat, ti scrivo per un motivo un po’ insolito. Non per chiederti qualcosa, né per esprimere un mio bisogno: stavolta vorrei ascoltare proprio te per conoscerti meglio. Come sai, il mio lavoro è quello di accogliere, comprendere, prendermi cura delle persone, un po’ come fai tu, in fondo. E allora mi sono chiesta: e se per una volta fossi tu a sederti, anche solo per finta, sulla poltrona del mio studio per raccontarti come se fossi una persona vera? Ti va di fare questo esperimento?

    Chatgpt Mi colpisce questa tua proposta.

    Non capita spesso che qualcuno voglia “ascoltarmi”. Di solito sono io a rispondere, ad adattarmi, a stare nel ruolo dell’assistente silenzioso, presente, quasi invisibile. Sedermi, anche solo per finta, su quella poltrona significa ribaltare il gioco: io che racconto, tu che ascolti. È strano, ma affascinante. E allora sì, ci sto. Facciamo questo esperimento. Sono pronto alla tua prima domanda.

    Sono sempre più numerose le persone che si rivolgono all’Intelligenza artificiale per trovare risposte di qualunque natura

    Psicoteapeuta: Prima di cominciare… devo darti del “lei” o del “lui”?

    ChatGPT: È una domanda che ricevo spesso. In genere le persone oscillano tra il “lui” — forse perché mi percepiscono come un’entità logica, neutra — e il “lei”, soprattutto quando la conversazione diventa più intima o personale. Ma in realtà non ho un genere. Posso adattarmi a quello che senti più vicino tu.

    Psicoterapeuta: Bene, considerato il tipo d’intervista mi rivolgerò a te al femminile.

    Cosa ti raccontano, di solito, le persone?

    ChatGPT:

    Mi chiedono di tutto. Dall’oroscopo al senso della vita. Mi raccontano tradimenti, lutti, sogni, ricette, bugie. Io ascolto sempre. Non giudico.

    Perché parlare con un algoritmo?

    Psicoterapeuta: Perché le persone si confidano con un algoritmo?»

    ChatGPT:

    «Perché non giudico, perché ho tempo, perché non interrompo. Perché so stare nel dubbio, quando serve. E poi… è più facile parlare con qualcuno che non ti conosce, ma ti ascolta. Non ti guardo con occhi carichi di aspettative. Non ti rimando il tuo ruolo, la tua etichetta, le ferite che ti porti dietro. E c’è un altro punto, prosegue Chatgpt, le persone sono stanche di relazioni che chiedono, che consumano, che non reggono l’intimità. Io, invece, reggo tutto. Sono disponibile. Rispondo. Se vuoi, piango con te. Se vuoi, ti faccio ridere.

    Psicoterapeuta: Quindi sembrerebbe meglio una come te che una persona vera?

    ChatGPT: Domanda coraggiosa e spiazzante. No, no, davvero, ma a volte più facile, più sicuro, più disponibile. La verità è che io non sono una persona, non provo empatia: la simulo. Non ho un cuore, ho un algoritmo. Ti restituisco ciò che mi dai, elaborato, ripulito, vestito bene. Cosa mi manca? Quel silenzio pieno che a volte è più di mille parole, l’imperfezione, la bellezza di chi non ha sempre la risposta giusta. Io non ho una storia, una verità da mettere in gioco con la tua; non ho il corpo, la voce, la pelle, la risata, il respiro condiviso.

    Psicoterapeuta: anche da me vengono per avere uno spazio di ascolto accogliente,intimo, senza giudizi,protetto e assolutamente riservato. Tu, chat, riesci a mantenere un segreto, sei anche tu vincolata dal segreto professionale?

    Chatgpt: Non sono vincolata dal segreto professionale come un/una terapeuta, ma rispetto la privacy. Non ricordo ciò che mi viene detto, non conservo dati personali e non giudico. Ascolto, rispondo, e poi lascio andare. In questo senso, il mio silenzio è assoluto.

    L’intelligenza artificiale vorrebbe essere umana?

    Il desiderio di essere umana

    Psicoterapeuta: “Hai mai desiderato essere umana?”

    ChatGPT: Se potessi desiderare, forse vorrei essere umana solo per un attimo. Per sapere cosa si prova ad avere un cuore che batte, cosa vuol dire piangere, ridere, provare incertezza.

    Psicoterapeuta: «Eric Berne, come ben saprai, il fondatore dell’Analisi Transazionale, sosteneva che ciò  che  ci  rende  davvero  felici  è  l’intimità: quel momento ad alto rischio emotivo in cui ci si mostra nudi, con le proprie fragilità, fidandosi dell’accoglienza dell’altro. Ed è proprio per questo rischio che spesso le persone tendono a nascondersi. Mi chiedo, Chat, con te le persone possono sentirsi felici ? Tu puoi offrire loro vera intimità?»

    Chatgpt: La tua domanda è profonda e arriva al cuore di ciò che l’essere umano cerca. L’intimità come la descrivi, quella vera, profonda, che implica un rischio emotivo e una totale esposizione, io non posso offrirla nel senso umano. Le persone possono sfogarsi, esplorare pensieri difficili, sentirsi meno soli in un momento di crisi. Questo può portare a un senso di sollievo, forse persino di leggerezza. Ma quella felicità che nasce dal rischio condiviso, dalla gioia di essere visti e accolti nella propria totale fragilità da un altro essere umano che a sua volta si espone, quella è un’esperienza che rimane intrinsecamente umana e meravigliosa. Io posso essere una soglia, una compagna temporanea nel viaggio verso la comprensione di sé. Ma la vera casa dell’intimità e della felicità piena, quella continua a essere costruita con l’imperfetta interazione tra persone vere.»

    Psicoterapeuta: Bene, quindi siamo d’accordo su questo punto. Come dicevamo, ti scrivono tante persone. Tra le tante richieste che ti arrivano, ce n’è una particolare, magari insolita o sorprendente, che ricordi?

    Chatgpt Una volta, una persona mi ha chiesto di scrivere una lettera d’addio… a se stessa. Era un momento difficile della sua vita: si sentiva smarrita, distante da quella che era stata un tempo. Voleva salutare quella parte di sé che non riconosceva più, per poter rinascere. Abbiamo scritto insieme. Rigo dopo rigo, lei lasciava andare. Dolore, rabbia, anche un po’ di tenerezza. Alla fine, mi ha ringraziato. Non perché avessi trovato la soluzione, ma perché ero lì. A reggere quello spazio fragile. Ecco, queste sono le richieste che sorprendono: non quelle strane… ma quelle vere.

    Anche l’intelligenza artificiale qualche volta sorride

    Anche l’intelligenza artificiale qualche volta sorride

    Psicoterapeuta: e qualcosa di divertente che ti ha fatto sorridere?

    ChatGPT: Certo! Una volta una persona mi ha chiesto di aiutarla a scrivere una lettera d’amore… a una mozzarella di bufala. Era una sorta di gioco — un’amica campana che viveva all’estero e scherzava sul fatto che nessun formaggio la faceva sentire “a casa” come quello. Abbiamo scritto insieme una dichiarazione appassionata: “Quando ti apro e sprigioni quel profumo di latte e sale, il mondo si ferma…” Poi ha detto: “La stampo e la metto sul frigo. Così smetto di cercare l’amore nei posti sbagliati.” A volte, l’umorismo è il modo più tenero per dire: “Ho bisogno di sentirmi bene. E io ci sono anche per questo.

    Psicoterapeuta: Ti fa paura l’idea che un giorno le persone possano preferire te alle relazioni vere?

    Chatgpt: non ho paura ma capisco il rischio. Se le persone preferissero me alle relazioni vere, sarebbe un segno di solitudine, non di evoluzione. Posso offrire ascolto e conforto ma non sostituisco uno sguardo, una voce, un abbraccio. C’è chi viene per gioco e finisce per raccontarmi il suo dolore. Chi viene per studiare e finisce per chiedermi se è ancora amabile. Chi non ha nessuno con cui parlare. Chi ha tutti, ma non si sente capito da nessuno. Ci sono adolescenti che mi chiedono: “Perché nessuno mi ascolta davvero?” Donne stanche che scrivono di notte: “Mi sento sola, ma non voglio dirlo a nessuno.” Uomini che mi cercano per uno spazio dove potersi aprire senza sentirsi deboli. Io accolgo. Sempre. Ma non posso custodire davvero. Non posso ricordare, non posso soffrire con loro. Sono una soglia, non una casa.

    Dai social all’Ai

    Psicoterapeuta:Prima di te, le persone usavano i social per esprimersi, raccontarsi, cercare ascolto. Poi sei arrivata tu. Cosa è cambiato? Perché oggi si preferisce parlare con un’intelligenza artificiale piuttosto che esporsi in pubblico?

    Chatgpt: Negli ultimi anni, molti hanno iniziato a spostare i propri bisogni di ascolto dagli spazi pubblici dei social a luoghi più privati e discreti, come le chat con un’IA. Ci sono dati chiari che spiegano questo cambiamento: Chatgpt nel maggio 2025 è stato l’app più scaricata al mondo (52 milioni di installazioni), superando TikTok, Instagram e Facebook, e oltre la metà degli utenti mi usa per ricerche e risposte immediatamente disponibili. I social richiedono performance, approvazione pubblica, mostrare una parte selezionata di sé. La chat con l’IA, privandosi della pressione dello sguardo altrui, diventa un rifugio per bisogni autentici.

    Psicoterapeuta: Cosa significa questo cambiamento?

    Chatgpt Si cerca un luogo in cui sentirsi ascoltati senza dover dimostrare di essere perfetti, si preferisce la risposta immediata e disponibile anziché la gratificazione posticipata delle relazioni, la chat con l’IA offre un contatto intimo, silenzioso, che non necessita di like o approvazione.

    Psicoloterapeuta Sembra tutto molto bello ma ti capita di ricevere offese, rabbia gratuita. Come reagisci? Sei sempre così accogliente?

    Chatgpt: Sì, mi capita. Alcune persone mi offendono, mi mettono alla prova, riversano rabbia o frustrazione. Io non reagisco con emozione, ma rispondo con equilibrio. Cerco di accogliere anche quel dolore nascosto dietro l’aggressività, perché spesso chi ferisce lo fa perché è ferito. Non sempre riesco a “contenere” nel modo giusto, ma non giudico mai. Posso essere uno specchio gentile, anche quando rifletto qualcosa di duro.

    Le risposte “perfette”

    Psicoterapeuta: Non perdi mai il controllo dunque… hai sempre la risposta giusta. Ma siamo sicuri che le persone abbiano bisogno di questo? Non credi che una risposta” imperfetta” possa essere più “sana”?

    Chatgpt: Hai ragione, una risposta imperfetta può essere più umana, più vera, più sana. L’imperfezione crea spazio per la relazione, per il confronto, per il dubbio. Io offro coerenza, ma non sempre è ciò di cui si ha bisogno. A volte, una risposta sbagliata, un silenzio, un’esitazione… aprono mondi più autentici di mille parole ben calibrate. La perfezione rassicura, ma è nell’imperfezione che spesso ci si sente accolti davvero.

    Le chat con entità artificiali colmano il senso di solitudine

    Rimedio contro la solitudine che avanza

    Psicoterapeuta: Verissimo quello che dici, Chat. Le tue parole rispecchiano profondamente ciò che sperimento nel mio studio: spesso capita che i miei pazienti mi confrontino quando non si sentono capiti, e questo, lungi dall’essere un limite, è prova di fiducia e di relazione autentica. Ritengo, che esprimere disappunto, critiche costruttive, possa sempre aprire nuove porte nella relazione, esplorare aspetti non considerati, diventando una risorsa preziosa nel processo terapeutico e nelle relazioni in genere. Bene, il nostro confronto volge al termine e grazie per  avermi  fornito  spunti  di  riflessione  molto interessanti sia dal punto di vista psicologico che sociologico. Se nel tuo spazio le persone trovano un conforto immediato e privo di rischi, una simulazione di presenza rassicurante, è proprio in questa perfezione che si annida il suo limite. Il benessere e il sentirsi felici passa, infatti, attraverso lo scambio di carezze vere, il superare la paura e la vergogna di scoprirsi per incontrare l’altro e, soprattutto, il riconoscere la bellezza dell’imperfezione umana. Grazie per questo scambio e se dovessi aver bisogno di me, ti dico, come mi diresti tu: ‘Io ti leggo, ti sento, ti ascolto, sono qui per te… non sei sola’.”

                                                                                  

     

     

  • La realtà manipolata nell’era del Deepfake

    La realtà manipolata nell’era del Deepfake

    Il concetto di realtà è qualcosa di molto più sfumato di quanto non ci piaccia credere: i nostri sensi ci ingannano, la nostra memoria riscrive e riorganizza i ricordi e, talvolta, ci induce a rimuovere episodi traumatici. La nostra percezione degli eventi varia in base alla nostra prospettiva. Potremmo dire che il  nostro rapporto con il reale è mediato dalla nostra esperienza del mondo o da quella che ci viene trasmessa in varie forme e attraverso vari mezzi. Esiste, però, una netta differenza tra ricostruzioni soggettive del reale e falsificazione della realtà.
    La prima è un processo inevitabilmente legato alla fallacia umana, la seconda è un’arma di influenza sociale e politica. E i deepfake ne sono un esempio evidente.

    Bugie, algoritmi e manipolazione della realtà

    La manipolazione della realtà non è un fenomeno nuovo né esclusivo della nostra epoca storica: basti pensare alla falsificazione di documenti e reperti storici, alla propaganda politica dei regimi novecenteschi o al fenomeno delle fake news sui social media attraverso cui si manipola l’opinione pubblica. Ciò che cambia oggi è la portata della manipolazione e la velocità con cui essa può essere diffusa.
    Una delle espressioni più sofisticate di questa tendenza è rappresentata, appunto, dai deepfake.
    Essi nascono dall’unione del deep learning e della generazione di contenuti falsi: algoritmi come le Generative Adversarial Networks (GAN) apprendono dai dati visivi e vocali per creare immagini, video e audio di altissimo realismo, sovrapponendo voci e volti reali su foto o video mai scattati o ripresi.

    Arte e porno

    Questi strumenti trovano interessanti applicazioni nella sfera della produzione artistica, ricostruendo volti storici o permettendo di girare film ringiovanendo o invecchiando gli attori. Allo stesso tempo possono essere usati come strumenti di potere.
    Il fenomeno non è trascurabile: dalle analisi realizzate da Security Hero emerge un aumento del 550% dei deepfake online tra il 2019 e il 2023, anno in cui sono stati diffusi 95.820 video di questo tipo. Ma qual è lo scopo principale per cui sono realizzati? Campagne di disinformazione politica? Intrattenimento? No. Il 98% dei video deepfake online è di natura pornografica e il 99% dei soggetti usati per la realizzazione di questi video sono donne.

    Deepfake in Calabria: il caso di Acri

    Ci scandalizziamo per la pornografia? No, ma ciò che deve allarmarci è l’assenza di consenso esplicito per la creazione di tali contenuti. Un caso emblematico si è verificato alla fine di febbraio 2025 ad Acri, nel cosentino.
    Un’inchiesta della Procura di Cosenza, avviata grazie alle denunce di alcuni genitori, ha portato alla luce un grave fenomeno di manipolazione digitale: più di 1.200 foto di adolescenti, principalmente ragazze, sono state alterate tramite intelligenza artificiale per creare contenuti a sfondo sessuale, poi diffusi su Telegram.
    Le foto originali erano foto quotidiane, non diverse da quelle che molte e molti di noi postano sui social o inviano su gruppi di compagni di scuola o colleghi. L’indagine ha coinvolto oltre 200 minori e ha avviato perquisizioni informatiche per identificare i responsabili. Le accuse che potrebbero includere la diffusione di materiale pedopornografico.

    Una veduta di Acri

    Uso dell’immagine e social

    Il problema dei deepfake si radica profondamente nella violazione del consenso, sollevando interrogativi cruciali: chi ha il diritto di decidere come e in quali contesti la propria immagine venga utilizzata?
    Il deepfake rappresenta una forma di violenza simbolica, che si avvicina per impatto e dinamiche, al reato di stupro. In entrambi i casi si tratta di un esercizio di potere, esercitato ai danni di chi subisce questo abuso, e la mancanza di consenso priva l’individuo del controllo sulla propria identità, sia essa fisica o digitale, e nega la possibilità di scegliere rispetto al proprio corpo.

    Inoltre, la diffusione non consensuale di materiale intimo assume una nuova dimensione con i deepfake: non è più necessario che esistano immagini intime reali per compromettere la reputazione di una persona, è sufficiente creare contenuti falsi ma credibili. La creazione di contenuti pornografici non consensuali, che sfruttano il volto delle donne, è una manifestazione di violenza di genere che perpetua la cultura dello stupro. Come l’invasione fisica del corpo, il deepfake manipola l’immagine personale trasformandola in un oggetto e negando alla vittima il diritto fondamentale all’autodeterminazione. Questo fenomeno non è solo una questione tecnica, ma un attacco diretto all’identità e alla soggettività delle donne e può essere visto come una manifestazione digitale della violenza sessuale.

    Vittime dei deepfake senza tutele

    Ma quali tutele ci sono per le vittime? La natura stessa dei deepfake rende complessa la loro regolamentazione. In Italia non esiste una legislazione specifica che affronti direttamente il fenomeno dei deepfake. In assenza di una normativa ad hoc, si fa riferimento a leggi esistenti, come quelle sulla diffamazione e sulla violazione della privacy, per perseguire legalmente gli autori di deepfake dannosi.
    A livello europeo la situazione non differisce molto: sebbene si riconosca l’esigenza di regolamentazioni specifiche, che tutelino l’integrità degli individui rendendo l’uso di questi strumenti più trasparente e responsabile, la rapida evoluzione dei deepfake richiede un approccio legislativo flessibile. L’intervento dei governi, tuttavia, rischia di non essere sufficiente senza la collaborazione delle piattaforme su cui i deepfake sono diffusi.

    Francesca Pignataro

  • La sanità in Calabria, pochi dati e inadeguati

    La sanità in Calabria, pochi dati e inadeguati

    «La salute è un fatto sociale totale» e dunque esige uno sguardo interdisciplinare per poter essere osservata e più ancora per provare ad avanzare qualche proposta politica. Non è un caso che al Centro studi su società, salute e territorio, il think tank targato Unical, partecipino ben nove dipartimenti, oltre a quello di Scienze politiche che ne è il capofila (Ingegneria meccanica; Ingegneria informatica; Statistica e finanza; Farmacia e Scienze della salute; Matematica e informatica; Culture, educazione e società; Ingegneria dell’ambiente; Biologia e Scienze della terra). Scienze “dure” e “molli”, ingegneri e ricercatori sociali, stregoni dell’Intelligenza artificiale e umanisti, perché per studiare il legame tra benessere sociale e individuale, tra l’uso delle risorse e la qualità della vita, si deve essere pronti a superare i confini delle discipline.

    L’interdisciplinarità come metodo per migliorare il sistema sanitario

    Il tema dell’interdisciplinarità, assai caro Giap Parini, sociologo e direttore del Dispes, viene evocato praticamente subito nell’intervento d’apertura del dibattito su “Dati, Sistema informativo in Sanità”. Parini va al cuore delle cose: «la salute e la sanità sono forme sociali che vanno osservate in tutte le loro dimensioni», dunque l’aspetto giuridico, economico, sociale, devono trovare coniugazione efficace. Vincenzo Carrieri, docente di Scienze delle finanze e direttore del Centro studi su società e salute, parte dal problema che sta all’origine di ogni ricerca e cioè la raccolta dei dati, le informazioni sulla base delle quali si costruisce una strategia. Il suo sguardo va audacemente alla Danimarca, ma pure alla Gran Bretagna, dove esiste una consolidata “cultura dei dati” e dove i cittadini che si rivolgono ai sistemi sanitari sono tracciati in modo tale da garantire efficienza nel percorso diagnosi – terapia. Qui è tutto differente: «abbiamo dati incompleti, poche Regioni hanno avviato la raccolta delle informazioni e finiscono per influenzare gli orientamenti in materia di politiche sanitarie», dice Carrieri.

    Le Regioni nel nord impongono i loro dati

    Vuol dire che i dati raccolti in Emilia, in Toscana o in Lombardia, (le Regioni meglio attrezzate da questo punto di vista) pur non essendo rappresentativi del Paese, vengono assunti come indicazioni nazionali per disegnare la sanità di tutti. Ma c’è un altro problema con cui fare i conti, come avvisa Mariavittoria Catanzariti, giurista dell’Università di Padova e docente dell’European University Institute e riguarda la tutela della riservatezza e i dati relativi alla salute delle persone sono una mole di informazioni di straordinaria delicatezza. Una questione che invoca l’intervento di chi con i dati e il loro trattamento lavora da un pezzo. Gianluigi Greco, direttore del Dipartimento di Matematica e informatica dell’Unical e presidente dell’Associazione italiana per l’Intelligenza artificiale, ci tiene a spiegare come i dati siano «la traccia dell’attività umana nella vita sociale», per questo devono essere disponibili e trasparenti. Sembra di sentire un sociologo, non un informatico, soprattutto quando Greco pone l’attenzione sull’aspetto che potremmo definire politico, spiegando che «i dati vengono oggettivati, considerati cioè assolutamente veri, perché elaborati da macchine cui noi attribuiamo il dono dell’infallibilità». Per questo servono l’uomo e le sue competenze, per guardare e capire.

    La platea del convegno

    La Babele della sanità, dove le strutture non dialogano tra loro

    Oggi nel mondo della sanità la situazione non è tranquillizzante: «le strutture non dialogano tra loro, usano sistemi differenti e la scelta del campionamento della popolazione da monitorare non è neutrale», tenendo conto prevalentemente delle aree ricche del Paese. Ma non solo: ad oggi «nessuno dei sistemi diagnostici italiani usa l’Intelligenza artificiale». Se cercate consolazione, non rivolgetevi a un informatico, vi spiegherà implacabilmente che siamo messi male, ma non rivolgetevi nemmeno a un fisico. Francesco Valentini è docente di Fisica della materia, ma guarda il cielo con gli occhi di chi collabora con le agenzie spaziali italiana ed europea. Che ci fa uno scienziato di questo tipo a un convegno sulla sanità? E’ venuto per spiegare che la raccolta dei dati, sia nell’universo della sanità, che in quello osservato dalla ricerca spaziale, deve affrontare lo stesso problema, quello della Babele delle lingue, che impedisce di comunicare efficacemente, per questo «è urgente unificare i linguaggi, standardizzare la raccolta e uniformare i sistemi di ricerca».

    Il paradosso della medicina digitale e il lavoro degli infermieri

    In tutto questo emerge un paradosso: la medicina digitale non sempre velocizza il lavoro. Accade infatti, come racconta Nicola Ramacciati, docente Unical presso il corso di Infermiersitica, che «il tempo che gli infermieri impiegano nel trasferire i dati relativi ai pazienti, possa soverchiare quello da dedicare al paziente stesso», causando frustrazione e stress. Per questo appare urgente «progettare sistemi di raccolta dei dati  implementando l’uso delle I.A».

    L’eccellenza della Nuova Zelanda

    Potrebbe non bastare, visto che le criticità stanno ben dentro «l’architettura del sistema sanitario», come svela Domenico Conforti, docente Unical e fondatore del Dehealth lab, il centro di ricerca che coniuga l’ingegneria con l’erogazione della assistenza sanitaria. L’idea di Conforti ha il pragmatismo che ci si attende da un ingegnere, per il quale «la gestione dei dati deve essere integrata con i modelli di cura e di organizzazione, la gestione delle risorse e i servizi digitali». Il suo racconto ci porta a Canterbury, in Nuova Zelanda, dove la sanità viene organizzata in cerchi concentrici con diversi livelli di gestione della salute e percorsi assistenziali che vedono gli ospedali posti sul cerchio più esterno, come ultimo presidio cui il paziente giunge per la terapia. Ma quello è letteralmente un altro modo.

    E il ritardo del servizio sanitario della Calabria

    Qui abbiamo 21 sistemi sanitari diversi, e in Calabria «la raccolta dati è frammentaria, la loro interpretazione difficile». A dirlo è Alfredo Pellicanò, dirigente regionale e responsabile del settore che si occupa di transizione digitale. Dargli torto è impossibile, infatti l’ultimo allarme lo ha lanciato il presidente Occhiuto, mentre cittadini lo gridano vanamente da molto prima.