stiamo tranquilli…

L’algoritmo che prevede chi commetterà un crimine, tra poca trasparenza e pregiudizi

L’algoritmo che prevede chi commetterà un crimine, tra poca trasparenza e pregiudizi

0 commenti

A cura di NedCuttle21(Ulm).

Un articolo pubblicato su Valigia Blu critica il funzionamento dei software di cui sovente si servono polizia e tribunali statunitensi nella lotta alla criminalità.

Nel 2013 l’imputato Eric Loomis (Wisconsin v. Loomis) viene accusato e riconosciuto colpevole per aver partecipato a una sparatoria. Loomis è soggetto anche a una valutazione algoritmica del rischio di recidiva, in modo da personalizzare la condanna. Il software Compas (Correctional Offender Management Profiling for Alternative Sanctions) stima un alto rischio di recidiva. Quindi la condanna è di 6 anni di reclusione più 5 di libertà vigilata. Loomis impugna la condanna sostenendo di non aver avuto la possibilità di valutare il funzionamento dell’algoritmo, e quindi di contestarne la decisione. Essendo un “segreto commerciale” (anche in quanto proprietà intellettuale), infatti, l’algoritmo non è conoscibile. Solo la decisione finale viene comunicata al tribunale. Loomis sostiene che l’utilizzo di un software decisionale algoritmico viola i suoi diritti, in particolare ritenendo che la sua condanna non fosse basata su elementi accurati.


Commenta qui sotto e segui le linee guida del sito.