ConsulThink ConsulThink ConsulThink
  • Home
  • Chi siamo
  • Solutions & Services ►
    • e-CyberMesh
    • e-CyberDev
    • Consulenza Specialistica
    • Consulthink Academy
    • e-CyLabs
  • News
  • ExperThinkers Room
  • Lavora con noi
  • Contatti
  • Policy
  • Privacy
AI CyberSecurity ExperThinkers GDPR GRC Information Security Trend

AI predittiva e Criminalità: tra Prevenzione, Privacy ed Etica algoritmica

5 Settembre 2025

Introduzione

Nel panorama tecnologico contemporaneo, l’intelligenza artificiale sta penetrando in ambiti sempre più delicati della società, sollevando interrogativi profondi sulle implicazioni etiche, sociali e legali del suo utilizzo. Tra le applicazioni più controverse figura l’impiego di algoritmi predittivi per l’identificazione di potenziali criminali prima che commettano reati. Questa tecnologia, che evoca inevitabilmente scenari distopici alla “Minority Report“, non è più confinata alla fantascienza ma sta diventando realtà in diverse parti del mondo. Recenti progetti e sperimentazioni in diversi Paesi stanno esplorando l’uso di algoritmi predittivi per la prevenzione del crimine, sollevando importanti questioni etiche e giuridiche.

Questo articolo si propone di esplorare le molteplici dimensioni di questa tematica, analizzando l’equilibrio precario tra sicurezza pubblica e diritti individuali, tra prevenzione del crimine e protezione della privacy, tra potenzialità tecnologiche e rischi di discriminazione algoritmica. L’obiettivo è fornire una riflessione critica su come la società debba approcciarsi a queste innovazioni, stabilendo limiti e regole che permettano di sfruttarne i benefici senza compromettere i diritti fondamentali dei cittadini.

Un caso esemplare: algoritmi predittivi per la prevenzione degli omicidi

Un recente progetto istituzionale ha avviato una sperimentazione controversa, utilizzando algoritmi di intelligenza artificiale per analizzare migliaia di profili personali al fine di identificare potenziali autori di omicidi prima che il crimine venga commesso. L’iniziativa mira a individuare caratteristiche e pattern comportamentali che potrebbero indicare una propensione a commettere crimini violenti, basandosi su dati provenienti da diverse fonti ufficiali. L’esistenza di questo programma è stata resa nota grazie all’accesso a documenti riservati ottenuti tramite richieste di accesso civico basate sulla libertà d’informazione.

Secondo quanto riportato, il sistema elabora una vasta gamma di informazioni personali, tra cui dati anagrafici (nomi, date di nascita, genere, etnia), identificativi del database nazionale delle forze dell’ordine e potenzialmente anche marcatori sanitari considerati ad alto valore predittivo, come informazioni relative alla salute mentale, dipendenze, tendenze suicide o autolesionistiche.

I promotori del progetto affermano che l’iniziativa ha finalità esclusivamente di ricerca e che i dati utilizzati riguardano solo individui con precedenti penali, respingendo le critiche secondo cui verrebbero analizzate informazioni su soggetti mai condannati. L’obiettivo dichiarato è potenziare gli strumenti di valutazione del rischio già in uso presso i servizi penitenziari e di libertà vigilata, migliorando l’analisi a supporto della tutela della sicurezza pubblica.

La protezione dei Dati personali: un diritto fondamentale a rischio

L’utilizzo di algoritmi predittivi nel campo della giustizia penale solleva gravi preoccupazioni riguardo alla protezione dei dati personali, un diritto fondamentale riconosciuto da numerose normative internazionali e costituzioni nazionali. Il caso illustra chiaramente come queste tecnologie richiedano l’accesso e l’elaborazione di vaste quantità di informazioni sensibili, incluse quelle che la normativa europea definisce come “categorie particolari di dati personali“, meritevoli di protezioni speciali.

La raccolta, l’archiviazione e l’elaborazione di informazioni relative alla salute mentale, alle dipendenze, alle tendenze suicide e all’autolesionismo rappresentano un’intrusione significativa nella sfera privata dell’individuo. Questi dati, quando combinati con informazioni demografiche, penali e comportamentali, creano un profilo dettagliato che potrebbe essere vulnerabile a utilizzi impropri, fughe di notizie o hackeraggio.

Il principio di limitazione della finalità, cardine delle normative sulla protezione dei dati come il GDPR europeo, è messo a dura prova da questi sistemi. I dati raccolti originariamente per scopi sanitari, assistenziali o di pubblica sicurezza vengono riutilizzati per finalità predittive che gli interessati non avrebbero potuto ragionevolmente prevedere al momento della raccolta. Questo solleva interrogativi sulla legittimità del trattamento e sulla validità del consenso, quando presente.

Inoltre, le persone sottoposte a monitoraggio algoritmico raramente sono informate di essere oggetto di tali analisi, vedendo così compromesso il loro diritto alla trasparenza e all’autodeterminazione informativa. La possibilità di esercitare diritti fondamentali come l’accesso, la rettifica o la cancellazione dei propri dati diventa teorica in un contesto di sorveglianza preventiva opaca e spesso classificata.

Etica algoritmica: il rischio di bias e discriminazione

Gli algoritmi di intelligenza artificiale non sono strumenti neutri, ma riflettono i valori, i pregiudizi e le limitazioni di chi li progetta e dei dati su cui vengono addestrati. Questo aspetto è particolarmente problematico quando tali sistemi vengono impiegati per prevedere comportamenti criminali, poiché i bias algoritmici possono perpetuare e amplificare discriminazioni sistematiche presenti nella società.

Numerosi studi hanno dimostrato che i sistemi di giustizia predittiva tendono a penalizzare in modo sproporzionato minoranze etniche, gruppi socioeconomici svantaggiati e persone con problemi di salute mentale. Questo accade perché gli algoritmi vengono addestrati su dati storici che riflettono disuguaglianze e pregiudizi esistenti nelle pratiche di polizia e nel sistema giudiziario.

Ad esempio, se storicamente la polizia ha concentrato la sua attenzione su determinati quartieri o gruppi demografici, i dati risultanti mostreranno una maggiore incidenza di crimini in quelle aree o tra quei gruppi. Un algoritmo addestrato su tali dati tenderà a identificare queste caratteristiche come predittive di criminalità, creando un circolo vizioso di sorveglianza e criminalizzazione che si autoalimenta.

Il rischio di creare una “profezia che si autoavvera” è concreto: le persone identificate come “ad alto rischio” verranno sottoposte a maggiore sorveglianza, aumentando la probabilità di rilevare eventuali infrazioni e confermando così la predizione originale. Questo meccanismo può portare a un sistema di giustizia a due velocità, in cui alcuni individui sono costantemente sotto la lente d’ingrandimento delle autorità mentre altri godono di maggiore libertà.

La trasparenza algoritmica e l’esplicabilità delle decisioni sono principi etici fondamentali che spesso vengono sacrificati sull’altare dell’efficienza o della complessità tecnica. Molti dei sistemi di IA più avanzati, come le reti neurali profonde, funzionano come “scatole nere” il cui processo decisionale non è facilmente comprensibile nemmeno per gli sviluppatori. Questa opacità è incompatibile con i principi di giustizia e responsabilità che dovrebbero guidare l’applicazione della legge in una società democratica.

Il dilemma sicurezza-libertà nell’era digitale

Al cuore del dibattito sull’utilizzo dell’IA predittiva in ambito criminale si trova il classico dilemma tra sicurezza collettiva e libertà individuali, esacerbato dalle peculiarità dell’era digitale. Da un lato, la promessa di prevenire crimini violenti prima che avvengano esercita un forte richiamo su governi e cittadini preoccupati dalla criminalità. Dall’altro, il rischio di scivolare verso una società di sorveglianza di massa solleva allarmi tra i difensori delle libertà civili.

La capacità degli algoritmi di processare quantità enormi di dati in tempo reale offre potenzialità senza precedenti per l’identificazione di pattern e correlazioni invisibili all’occhio umano. Tuttavia, questa stessa potenza di calcolo, se non adeguatamente regolamentata, può trasformarsi in uno strumento di controllo sociale pervasivo che mina le fondamenta stesse dello stato di diritto.

Un principio fondamentale dei sistemi giuridici democratici è la presunzione di innocenza: ogni individuo è considerato innocente fino a prova contraria. I sistemi predittivi, tuttavia, rovesciano questa logica, identificando persone come potenziali criminali sulla base di correlazioni statistiche prima che abbiano commesso alcun reato. Questo approccio preventivo rischia di criminalizzare non azioni concrete, ma profili, caratteristiche o circostanze di vita.

Inoltre, l’effetto deterrente di una sorveglianza pervasiva, sebbene possa ridurre alcuni tipi di crimini, comporta costi sociali significativi in termini di libertà di espressione, autonomia personale e fiducia nelle istituzioni. Una società in cui i cittadini si sentono costantemente monitorati è una società in cui il dissenso, la creatività e l’innovazione rischiano di essere soffocati.

L’AI Act e il quadro normativo europeo

Di fronte alle sfide poste dall’IA predittiva in ambito criminale, l’Unione Europea ha compiuto un passo fondamentale con l’adozione dell’AI Act (Regolamento UE 2024/1689), il primo quadro giuridico globale al mondo sull’intelligenza artificiale, entrato in vigore il 1° agosto 2024 con l’obiettivo di “promuovere un’IA affidabile in Europa” stabilendo “norme basate sul rischio per gli sviluppatori e gli operatori di IA“.

L’AI Act adotta un approccio basato sul rischio che risulta particolarmente rilevante per i sistemi di identificazione predittiva di potenziali criminali. Il regolamento classifica le applicazioni di IA in quattro categorie di rischio, con conseguenti obblighi differenziati:

  • Rischio inaccettabile: l’AI Act vieta esplicitamente alcuni utilizzi dell’IA considerati incompatibili con i valori europei. Tra questi figurano “sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere“. Questo potrebbe limitare significativamente alcune forme di sorveglianza algoritmica di massa e sistemi predittivi basati su profili biometrici.
  • Rischio alto: i sistemi di IA utilizzati nell’amministrazione della giustizia e nei processi democratici sono classificati come ad alto rischio. Questi possono essere “immessi sul mercato e utilizzati solo dopo essere stati sottoposti ad una valutazione di conformità” che verifica il rispetto di rigorosi requisiti. Ciò include i sistemi predittivi utilizzati dalle forze dell’ordine, che dovranno dimostrare di rispettare principi di trasparenza, non discriminazione, supervisione umana e adeguata gestione dei rischi.
  • Rischio limitato: i sistemi con “un limitato potenziale di manipolazione, soggetti a obblighi di trasparenza” devono informare gli utenti quando interagiscono con l’IA o sono esposti a contenuti generati artificialmente.
  • Rischio minimo: i sistemi di IA che presentano solo un rischio minimo sono soggetti a obblighi minimi, ma sono comunque “incoraggiati all’adozione di codici di condotta” volontari.

L’AI Act introduce inoltre importanti meccanismi di governance e supervisione, tra cui “un ufficio per l’IA all’interno della Commissione europea, un gruppo di esperti scientifici indipendenti, un comitato per l’IA composto da rappresentanti degli Stati membri e un forum consultivo per i portatori di interessi“. Queste istituzioni avranno il compito di monitorare l’implementazione del regolamento e fornire linee guida per il suo rispetto.

Il regolamento prevede inoltre sanzioni significative per le violazioni, “fino a 15 milioni di euro o al 3% del fatturato mondiale annuo” per le violazioni più gravi, e garantisce che le persone colpite da violazioni dei diritti fondamentali a causa dell’uso dell’IA abbiano accesso a rimedi effettivi.

L’AI Act affronta specificamente molte delle problematiche discusse in questo articolo, come la trasparenza algoritmica, la necessità di supervisione umana, la prevenzione dei bias e la protezione dei dati personali. Tuttavia, la sua efficacia nell’affrontare le sfide specifiche dei sistemi di IA predittiva in ambito criminale dipenderà in larga misura dall’implementazione pratica e dall’interpretazione delle sue disposizioni da parte delle autorità nazionali e degli organismi di supervisione europei.

Conclusione

L’utilizzo dell’intelligenza artificiale per predire e prevenire crimini rappresenta una frontiera tecnologica carica di promesse e pericoli. Da un lato, queste tecnologie offrono la possibilità di allocare in modo più efficiente risorse limitate e potenzialmente salvare vite umane attraverso l’intervento preventivo. Dall’altro, sollevano preoccupazioni profonde riguardo ai diritti fondamentali, all’equità sociale e alle fondamenta stesse della democrazia.

Queste tensioni stanno già emergendo nella pratica, richiedendo risposte urgenti da parte dei legislatori, dei tribunali e della società civile. L’equilibrio tra innovazione tecnologica e protezione dei diritti umani non sarà facile da trovare, ma è una sfida che non possiamo permetterci di ignorare.

In ultima analisi, la questione non è se utilizzare o meno l’intelligenza artificiale in ambito criminale, ma come farlo in modo responsabile, etico e rispettoso dei diritti fondamentali. Questo richiederà non solo soluzioni tecniche e normative, ma anche un dibattito pubblico informato sui valori che vogliamo preservare e promuovere nella società digitale del futuro.

La tecnologia predittiva, come ogni strumento potente, non è intrinsecamente buona o cattiva: il suo valore dipende da come scegliamo di utilizzarla. La sfida che ci attende è costruire un ecosistema in cui l’innovazione tecnologica serva a rafforzare, piuttosto che erodere, i principi di giustizia, equità e dignità umana su cui si fondano le nostre società democratiche.

 

Articolo a cura del Team Governance, Risk and Compliance
Consulthink S.p.A.
info[@]consulthink.it

Leggi gli altri articoli nella ExperThinkers Room

 

Bibliografia

Brennan Center for Justice. (2020). “Predictive Policing Explained“.

Commissione Europea. (2024). “La legge sull’IA (regolamento (UE) 2024/1689)“.

Consiglio dell’Unione Europea. (2024). “Regolamento sull’intelligenza artificiale“.

Econsult Solutions, Inc. (2023). “The Impact of Predictive Policing“.

Falcon Editing. (2024). “Ethical Implications of AI in Predictive Policing“.

Gstrein, O.J., Bunnik, A. & Zwitter, A. (2019). “Ethical, Legal and Social Challenges of Predictive Policing“.

NAACP. (2024). “Artificial Intelligence in Predictive Policing Issue Brief“.

Parlamento Europeo. (2024). “Il Parlamento europeo approva la legge sull’intelligenza artificiale“

Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce norme armonizzate sull’intelligenza artificiale. Gazzetta ufficiale dell’Unione europea, 12 luglio 2024.

The Security Distillery. (2021). “Ethics, Artificial Intelligence and Predictive Policing“.

Like
Recent posts
Cyber Insurance: pro e contro di un fenomeno in continua evoluzione
Approccio storico alla Progettazione del Software e alla Sicurezza Informatica
Previous post Cyber Insurance: pro e contro di un fenomeno in continua evoluzione
Categorie
  • AI (3)
  • ASSINTEL (1)
  • Awareness (2)
  • Big Data (1)
  • Blockchain (1)
  • Casi di successo (1)
  • Cloud (2)
  • Cyberattack (2)
  • CyberSecurity (10)
  • Data Protection (9)
  • Enterprise Architecture (3)
  • Eventi (1)
  • ExperThinkers (27)
  • Formazione (2)
  • GDPR (12)
  • GRC (9)
  • ICT (2)
  • Information Security (9)
  • IoT (1)
  • Marketing (3)
  • Mobile (1)
  • News (8)
  • Normative (9)
  • Offensive (3)
  • Offensive Security (4)
  • People Management (1)
  • Phishing (2)
  • Premi (1)
  • Privacy (8)
  • R&D (1)
  • Red Team (4)
  • Security (5)
  • Smart Working (1)
  • Software (1)
  • Soluzioni (4)
  • Trend (5)
  • Uncategorized (1)
Ultime News
AI predittiva e Criminalità: tra Prevenzione, Privacy ed Etica algoritmica
5 Settembre 2025
Cyber Insurance: pro e contro di un fenomeno in continua evoluzione
5 Settembre 2025
Approccio storico alla Progettazione del Software e alla Sicurezza Informatica
5 Settembre 2025
L’utilizzo dei dati nell’era dei social media: tra opportunità e rischi
5 Settembre 2025
Equilibrio tra Innovazione e Sicurezza: la Sfida della Regolamentazione AI
5 Settembre 2025

P.Iva 07855131004 - Via Cristoforo Colombo, 163 - 00147 Roma

© Consulthink. All Right Reserved 2019


Privacy PolicyCookie