L'intelligence Artificielle Prédictive De La Criminalité "mise à Feu" - Vue Alternative

L'intelligence Artificielle Prédictive De La Criminalité "mise à Feu" - Vue Alternative
L'intelligence Artificielle Prédictive De La Criminalité "mise à Feu" - Vue Alternative

Vidéo: L'intelligence Artificielle Prédictive De La Criminalité "mise à Feu" - Vue Alternative

Vidéo: L'intelligence Artificielle Prédictive De La Criminalité
Vidéo: La prochaine révolution de l'Intelligence artificielle - Yann LeCun, à l'USI 2024, Mai
Anonim

L'algorithme Compas, qui travaille pour la police américaine depuis 1998, a analysé les données des prévenus, puis, sur la base des informations reçues, a aidé à décider, par exemple, si le criminel doit être libéré sous caution ou maintenu en détention. Lors du choix d'une mesure de contention, le système a tenu compte de l'âge, du sexe et des antécédents criminels. Pendant 20 ans de «service», l'algorithme a été évalué par plus d'un million de personnes, mais récemment il a été déclaré incompétent, après quoi il a été immédiatement rappelé.

Des scientifiques du Dartmouth College ont testé la précision du système et sa fiabilité. Pour ce faire, ils ont recruté des pigistes, des gens ordinaires sans formation juridique, pour prendre leurs propres décisions sur la base d'informations brèves sur les personnes, en donnant aux sujets des informations sur le sexe, l'âge, les antécédents criminels et plusieurs autres paramètres.

La précision des prévisions des pigistes qui avaient un petit dossier était de près de 70%, tandis que le programme accusait un retard de 5% par rapport aux gens, tout en s'appuyant sur 137 points de biographie. L'analyse des jugements de l'algorithme a montré que les prisonniers noirs sont plus susceptibles d'être suspectés par le programme.

«Les erreurs dans de tels cas peuvent être très coûteuses, il vaut donc la peine de se demander si cet algorithme doit être utilisé pour rendre les verdicts des tribunaux», déclare l'un des auteurs de l'étude.

Après avoir étudié le principe de l'algorithme, les chercheurs sont arrivés à la conclusion que plus l'accusé est jeune et plus il a d'arrestations derrière lui, plus la probabilité d'une rechute est élevée. Par conséquent, les spécialistes de l'IA ont reconnu que la technologie n'était pas fiable.

Viacheslav Larionov

Recommandé: