Nel 2026, l'intelligenza artificiale non è più una promessa del futuro, ma una realtà operativa negli ospedali e nelle questure dell'Emilia-Romagna. Mentre il resto d'Italia ancora dibatte sull'opportunità di questa tecnologia, la regione ha scelto una strada precisa: adottare l'IA, sì, ma mantenendo il controllo democratico nelle mani delle istituzioni pubbliche.
Non è una posizione ideologica, ma pragmatica. La sanità e la sicurezza pubblica gestiscono dati tra i più sensibili: cartelle cliniche, impronte digitali, video di sorveglianza. Affidare questi sistemi interamente a società private creerebbe dipendenza tecnologica da aziende estere e rischi concreti per la privacy. L'Emilia-Romagna lo ha capito e si sta muovendo di conseguenza.
L'opinione dei cittadini: sì all'IA, ma pubblica
I sondaggi condotti negli ultimi mesi mostrano un risultato inequivocabile: il 72% degli emiliano-romagnoli approva l'uso dell'intelligenza artificiale in sanità, purché rimanga sotto il controllo di enti pubblici e regionali. Non è diffidenza verso la tecnologia, ma consapevolezza dei rischi concreti.
Questa posizione riflette un'esperienza accumulata sul campo. L'Emilia-Romagna ha costruito negli ultimi due decenni sistemi sanitari territoriali tra i più efficienti d'Italia: 278 case della salute distribuite sul territorio, fascicoli sanitari digitali integrati in tutte le province, reti di cure primarie coordinate che riducono gli accessi al pronto soccorso del 18% rispetto alla media nazionale.
Infrastrutture pubbliche che hanno dimostrato come la sanità possa funzionare bene senza privatizzazioni selvagge. L'intelligenza artificiale, in questa logica, è uno strumento per potenziare quanto già costruito, non per sostituire il pubblico con il privato.
Dove l'IA funziona già negli ospedali
La diagnostica medica è il settore dove l'intelligenza artificiale ha dimostrato i risultati più concreti e misurabili. Negli ospedali di Bologna, Modena, Parma e Ferrara, sistemi di analisi automatica delle immagini radiologiche assistono quotidianamente il lavoro dei medici con dati reali:
Rilevamento dei tumori polmonari: algoritmi addestrati su 450.000 scansioni CT identificano noduli sospetti con accuratezza del 94%. Significa che su 100 noduli effettivamente presenti, il sistema ne cattura 94, con un tasso di falsi positivi intorno al 3%. Per il paziente significa diagnosi più precoce; per l'ospedale, riduzione della sottoutilizzazione dei radiologi.
Analisi cardiaca avanzata: software che legge elettrocardiogrammi a riposo, segnalando fibrillazione atriale parossistica con sensibilità del 91%. Una malattia spesso silente che causa ictus: catturarla con uno strumento automatico su 1.000 screening salva circa 8-10 persone da accidenti cerebrovascolari nel corso dell'anno.
Ottimizzazione del percorso diagnostico: sistemi che suggeriscono il test successivo più appropriato in base ai risultati precedenti, riducendo visite inutili e accelerando la diagnosi di malattie rare. Nei reparti di medicina interna di Bologna, questa logica ha ridotto il tempo medio di diagnosi da 14 a 7 giorni.
Nei reparti di terapia intensiva, algoritmi predittivi analizzano in tempo reale i parametri vitali: pressione arteriosa, ossigenazione, frequenza cardiaca, lattato nel sangue. Il sistema usa serie storiche e machine learning per identificare il momento in cui il paziente sta per peggiorare, alertando il personale infermieristico 15-20 minuti prima della crisi. Non è fantascienza: significa che l'infermiere sale dal letto non quando il paziente va in coma, ma quando ancora è possibile intervenire.
Negli ambulatori territoriali, chatbot intelligenti addestrati sui protocolli regionali gestiscono i triage telefonici iniziali: la persona chiama il numero verde della medicina di base e viene guidata attraverso un albero decisionale che distingue l'urgenza reale dal disagio. Sistema che riduce i ricoveri impropri del 12%.
La sicurezza pubblica non scappa dalle innovazioni
Anche la questura regionale di Bologna ha introdotto sistemi di riconoscimento facciale per le ricerche di persone scomparse o di criminali, ma con una differenza cruciale rispetto ai modelli americani o cinesi: i dati rimangono nel server regionale, non viaggiano verso cloud americani. Le persone riconosciute automaticamente sono poi sempre verificate da un agente prima di qualsiasi azione.
Lo stesso vale per i sistemi di previsione della criminalità: algoritmi che analizzano i dati storici di furti e rapine per suggerire i presidi dove concentrare i controlli. Non si arresta nessuno sulla base di una previsione algoritmica, ma si pianificano risorse sulla base di dati statistici solidi, cosa che le questure facevano già intuitivamente, solo meno efficacemente.
Il nodo della formazione: chi insegna l'IA ai medici
Un aspetto spesso trascurato è la formazione. Un radiologo che usa un sistema di IA senza capire come funziona corre il rischio di diventare un mero confermatore di quello che l'algoritmo suggerisce. Per questo motivo la Regione ha investito in percorsi formativi obbligatori: 40 ore di corso online per medici e infermieri che lavorano con sistemi IA, focalizzato su comprensione degli algoritmi, interpretazione dei risultati, riconoscimento dei limiti.
Non è un dettaglio burocratico. È la differenza tra uno strumento usato consapevolmente e una scatola nera di cui fidarsi ciecamente.
Il rischio della dipendenza: perché il controllo pubblico conta
Un punto che la maggior parte dei dibattiti pubblici ignora: una volta che la sanità regionale affida i sistemi diagnostici a una multinazionale privata, come Microsoft o Google, diventa praticamente impossibile tornare indietro. Il know-how è loro, i dati sono loro, il codice è proprietario. Se domani la società decide di alzare i prezzi del 300% o di chiudere il supporto, la regione non ha opzioni.
Nei prossimi tre anni, l'Emilia-Romagna sta investendo 47 milioni di euro per sviluppare internamente competenze in IA, collaborando con università locali (Bologna, Modena, Parma) e centri di ricerca pubblici. Non significa reinventare ChatGPT, ma significa mantenere autonomia decisionale su tecnologie critiche.
È una lezione che la sanità pubblica tedesca e quella olandese hanno imparato dopo aver subito ricatti tecnologici da fornitori privati negli anni Duemila.
Domande Frequenti
D: Se un algoritmo sbaglia a diagnosi, chi è responsabile legalmente?
R: In Emilia-Romagna la responsabilità rimane del medico che ha preso la decisione clinica, non del sistema. L'IA è uno strumento di supporto, come una risonanza magnetica. Se un radiologo ignora un avvertimento dell'algoritmo e il paziente muore, il medico è comunque responsabile di quella scelta. Per questo la formazione è cruciale: il medico deve capire quando fidarsi del sistema e quando dubitarne.
D: Quanto costa implementare questi sistemi negli ospedali più piccoli?
R: Un sistema di diagnostica per immagini costa tra 80.000 e 150.000 euro in
