
Dal palco dello scorso CXNOW Healthcare 2026 del 26 febbraio, Pasquale Borriello, CEO Arkage, e Federico Della Bella hanno messo a fuoco il nodo più concreto dell’adozione dell’AI in sanità: non “se” usare l’AI, ma quale AI usare, dove e con quali garanzie di trasparenza, robustezza e governance.
Il mercato dell’AI in Italia continua a crescere con un CAGR del +54% nell’ultimo triennio, fino a 1,8 miliardi di euro nel 2025 (Osservatori Digital Innovation, Politecnico di Milano, febbraio 2026). È un segnale chiaro: l’AI non è più un “pilota”, ma un abilitatore che entra nei processi core. In parallelo, gli investimenti globali in Generative AI in sanità mostrano una traiettoria verticale, con una crescita stimata fino a 25B$ entro il 2031 (Bloomberg). Per pharma e healthcare questo significa una cosa: la competizione non si giocherà solo sulla disponibilità di tecnologia, ma sulla capacità di trasformarla in soluzioni affidabili, verificabili e adottabili da clinici, pazienti e organizzazioni.
Il Patient Journey diventa la mappa operativa per capire dove l’AI porta impatto reale: dalla personalizzazione di prevenzione e all’accesso alle cure, dal customer service automatizzato fino a diagnosi multimodal, passando per trial, automation e drug discovery.
Il punto chiave è che questi casi d’uso non hanno tutti lo stesso profilo di rischio: una cosa è supportare un contact center o l’accesso ai servizi, un’altra è influenzare una decisione clinica o una priorità di allocazione risorse. È qui che entra in gioco il tema centrale del talk: l’equilibrio tra affidabilità e trasparenza lungo i touchpoint, perché ogni passaggio del journey ha una diversa “tolleranza” all’errore e diversi requisiti di explainability.
L’explainability è la capacità dei modelli decisionali di fornire spiegazioni sul processo con cui giungono alle conclusioni.In sanità, un’AI non spiegabile non è solo un limite teorico, ma un rischio concreto. Possono essere quattro i pericoli principali legati alla black box (ovvero un sistema AI con quasi zero explainability):
sfiducia
mancanza di identificazione di responsabilità
rafforzamento dei pregiudizi (bias)
non conformità normativa.
Con la Generative AI il tema si amplifica: serve maggiore robustezza e trasparenza, perché la variabilità delle risposte e l’imprevedibilità (anche rispetto a micro-variazioni dei prompt) rendono più complessa la validazione nel tempo, soprattutto in contesti regolati.
Guardando al futuro, l’evoluzione tecnologica si spinge dall’AI “di percezione” (speech recognition, medical imaging) alla Generative AI, fino alla Agentic AI, che non si limita a generare contenuti ma agisce, orchestrando task e processi (customer service, patient care, coding assistant). In prospettiva, la curva si estende verso la Physical AI (robotica e automazione avanzata). Questo implica una conseguenza immediata per il settore: più l’AI diventa “attiva” nei processi, più governance, controllo e verificabilità diventano componenti strutturali del progetto, non allegati a valle.
L’explainability indica la capacità di interpretare le decisioni di un modello di machine learning, un concetto fondamentale in ambito healthcare e pharma: abilita fiducia e adozione, supporta auditability e actionability, diventa leva di compliance in un quadro normativo che richiede sempre più tracciabilità e controllo. Il messaggio è dunque pragmatico: senza explainability, molte soluzioni restano prototipi “brillanti” ma non scalabili. Con l’explainability, invece, possono diventare strumenti di decisione e miglioramento continuo, utilizzabili dai decision maker in modo data-driven.
L’explainability non è un esercizio accademico: è ciò che permette di passare da “l’AI dice” a “possiamo verificare perché lo dice” e quindi decidere se e come usarla in un contesto clinico, regolato e ad alto impatto umano.
Un altro momento utile per allineare stakeholder tecnici e non tecnici è stato il chiarimento su “cosa fa” un sistema come ChatGPT: non cerca in un database e non recupera risposte precompilate, ma predice le parole una a una sulla base dell’apprendimento automatico (Searchlight Institute). In sanità, questa distinzione è decisiva: aiuta a impostare correttamente aspettative, controlli e metriche. Se un modello genera testo “plausibile”, allora la governance deve prevedere: criteri di verifica, fonti, contesto clinico, e soprattutto confini chiari tra supporto informativo e decisione.
Questo apparentemente, secondo una recente ricerca, non è chiaro alle persone e la trasparenza dei sistemi diventa più complicata da ottenere.
L’approccio Arkage di unire strategia, creatività e tecnologia per generare impatto reale resta saldo anche in questo settore ma con un punto fermo: in Healthcare l’innovazione funziona solo se è adottabile, controllabile e responsabile. E soprattutto se c’è trasparenza (explainability). La trasparenza è un pilastro dell’AI responsabile e quindi un passo imprescindibile verso l’AI for Good. Adottare l’AI lungo il patient journey significa disegnare ecosistemi in cui affidabilità ed explainability non sono alternative, ma parametri da bilanciare in base al rischio del caso d’uso, ai vincoli regolatori e alle aspettative di clinici e pazienti.