Site icon Simona Maruccio

Femminicidio e Intelligenza Artificiale: l’algoritmo può condannare a morte?

Femminicidio e Intelligenza Artificiale: l’algoritmo può condannare a morte?

Femminicidio e Intelligenza Artificiale: l’algoritmo può condannare a morte?

Lina è stata uccisa a Malaga, nel febbraio scorso, dal suo ex compagno tre settimane dopo aver chiesto aiuto alla polizia. Aveva denunciato comportamenti aggressivi, chiesto misure di protezione, ottenuto una valutazione “a rischio medio” da VioGén, l’algoritmo utilizzato in Spagna per classificare la pericolosità dei casi di violenza domestica. Nessun intervento tempestivo:  secondo protocollo, l’assistenza sarebbe arrivata entro 30 giorni. Troppo tardi. L’uomo le ha dato fuoco. Lina è morta.

Il dramma ha riacceso il dibattito sull’affidabilità degli strumenti predittivi nel prevenire la violenza di genere. VioGén, infatti, classifica il rischio su cinque livelli – da “trascurabile” ad “estremo” – e determina i tempi di intervento  sulla base di un questionario standardizzato. Ma la domanda che oggi pongo è: possiamo davvero affidarci ad un algoritmo per salvare vite?

Con l’entrata in vigore del Regolamento (UE) 2024/1689, noto come AI Act, l’Europa ha introdotto norme stringenti sull’uso dell’IA, vietando esplicitamente i sistemi che prevedono il comportamento criminale di una persona basandosi su mere “caratteristiche personali” – come status socioeconomico, etnia o comportamenti pregressi – per evitare discriminazioni sistemiche.

Per contro il citato Regolamento consente l’utilizzo di strumenti che supportano la valutazione umana, purché basati su dati oggettivi e verificabili. È proprio qui che si colloca il nodo critico: VioGén elabora dati, ma comprende davvero la complessità della minaccia? Oppure si limita a schematizzare rischi che richiederebbero ascolto, empatia, intuito?

L’intuizione umana contro il calcolo della macchina: gli algoritmi, per quanto sofisticati, non hanno coscienza morale, non colgono sfumature emotive o segnali non verbali; funzionano sulla base di correlazioni, non di comprensione. L’essere umano, al contrario, può percepire il pericolo che sfugge ai dati, leggere la paura negli occhi di una vittima, comprendere l’urgenza  dietro un racconto frammentato ovvero interpretare il linguaggio del corpo che urla più delle parole e quindi prendere decisioni motivate da empatia, esperienza e responsabilità.

Nel caso di Lina, forse un operatore attento avrebbe colto ciò che l’algoritmo non ha saputo vedere. Forse avrebbe riconosciuto un’escalation di violenza imminente. Forse sarebbe intervenuto.

Algoritmi sì, ma non da soli, posto che l’Intelligenza Artificiale, nel contesto della prevenzione della violenza di genere, può – e deve – rappresentare un potente strumento di supporto decisionale. Non possiamo tuttavia commettere l’errore di delegare a un calcolo statistico la responsabilità morale e giuridica di decisioni che toccano il valore più alto: la vita umana.

L’AI Act rappresenta un passo avanti. Ma affinché non resti lettera morta, occorrono formazione, supervisione umana e una cultura della responsabilità  che metta sempre al centro la dignità e la sicurezza della persona.

Allora domando, di nuovo ed in conclusione, che ruolo dovrebbe avere l’intelligenza artificiale nella protezione delle vittime? E quando, invece, dobbiamo ancora affidarci solo al cuore  e alla coscienza dell’uomo?

Io rispondo che in un’epoca in cui la tecnologia avanza a ritmi vertiginosi, la vera sfida sarà preservare l’umano nell’uso dell’intelligenza artificiale. Solo così l’innovazione potrà essere al servizio della giustizia e della dignità di ciascuna persona.

Avv. Simona Maruccio

simona@maruccio.it

🔗 Link articolo Milano Post

Exit mobile version