Prime linee guida italiane sull’uso dell’Ai in cardiologia
(da M.D.Digital) La Società italiana di cardiologia (Sic) ha firmato un documento di consenso sull’impiego dell’Intelligenza artificiale (Ai) in cardiologia, sottolineandone l’utilità nella diagnosi precoce di malattie come, per esempio, l’ipertensione o lo scompenso cardiaco e l’impiego per una valutazione più accurata di elettrocardiogrammi ed ecocardiogrammi, ma anche di risonanze magnetiche e Tac, così da diagnosticare e monitorare meglio i pazienti.
Il documento, presentato in occasione del Congresso Sic 2024, prende in esame gli utilizzi di Ai e machine learning in cardiologia, ne sottolinea le grandi potenzialità a partire dal monitoraggio serrato dei pazienti ad alto rischio ricoverati con malattie cardiache: un ampio studio su quasi 16 mila pazienti pubblicato di recente su Nature Medicine, per esempio, ha dimostrato che la mortalità a tre mesi può ridursi del 31% associando l’Ai all’elettrocardiogramma per identificare i casi con una maggiore probabilità di andare incontro a un evento fatale.
“Uno studio su 362 pazienti sottoposti a Ecg prima dell’arrivo in ospedale – osserva Ciro Indolfi, past-president della Sic – ha dimostrato un’accuratezza del 99% nell’identificare i casi più seri, con tempi di valutazione medi di appena 37 secondi, circa quattro volte inferiori a quelli di un medico in carne e ossa, che hanno accorciato ad appena 18 minuti l’intervallo fra l’arrivo in clinica e la procedura di rivascolarizzazione”.
Il documento di consenso sottolinea che l’impiego di algoritmi di machine learning e Ai potrebbe anche migliorare la diagnosi di malattie come l’ipertensione e lo scompenso cardiaco, che potrebbero inoltre essere gestite in maniera più adeguata grazie all’accuratezza dell’Ai nella classificazione del rischio dei pazienti e quindi nella scelta fra le possibili terapie.
Tuttavia, avverte Indolfi, “esistono anche criticità di cui tenere conto utilizzando l’Ai, non solo perché sono necessarie altre e più ampie ricerche per validarne le potenzialità e gli usi nella pratica clinica, ma soprattutto per gli aspetti etici e normativi su cui è necessario riflettere. Molti algoritmi, specialmente quelli basati sul deep learning, operano spesso come “black box” prendendo decisioni sulla base di calcoli complessi da decrittare per un umano, che quindi possono rendere difficile riconoscere eventuali errori o bias. È poi “altrettanto fondamentale interrogarsi sulle modalità di introduzione dell’Ai per definire bene di chi siano le responsabilità di scelte dettate dagli algoritmi: la Fda classifica i prodotti di Ai software come dispositivi medici, il regolamento ‘Ai act’ dell’Unione Europea 2024/1689 impone Ai produttori e agli sviluppatori specifici obblighi e caratteristiche in merito agli usi dell’Ai, per esempio proibendo applicazioni di Ai che potrebbero porre rischi troppo elevati”.