Pourquoi L'intelligence Artificielle Juge-t-elle Les Criminels Dangereux? - Vue Alternative

Table des matières:

Pourquoi L'intelligence Artificielle Juge-t-elle Les Criminels Dangereux? - Vue Alternative
Pourquoi L'intelligence Artificielle Juge-t-elle Les Criminels Dangereux? - Vue Alternative

Vidéo: Pourquoi L'intelligence Artificielle Juge-t-elle Les Criminels Dangereux? - Vue Alternative

Vidéo: Pourquoi L'intelligence Artificielle Juge-t-elle Les Criminels Dangereux? - Vue Alternative
Vidéo: Pourquoi l’intelligence ARTIFICIELLE va nous DÉTRUIRE ? 2024, Mai
Anonim

L'intelligence artificielle aide déjà à déterminer votre avenir d'une manière ou d'une autre. Lorsque vous recherchez quelque chose sur un moteur de recherche, utilisez un service comme Netflix, ou une banque évalue votre aptitude à obtenir un prêt hypothécaire. Mais que se passe-t-il si l'intelligence artificielle doit déterminer si vous êtes coupable ou non, au tribunal? Curieusement, cela peut déjà se produire dans certains pays. Récemment, on a demandé au Haut juge américain John Roberts s'il pouvait imaginer un jour où «des machines intelligentes, contrôlées par l'intelligence artificielle, aideront à trouver des preuves ou même à prendre des décisions judiciaires». Il a répondu: "Ce jour est déjà venu, et il aide considérablement les autorités judiciaires dans la procédure."

Roberts faisait peut-être référence au cas récent d'Eric Loomis, qui a été condamné à six ans de prison sur la recommandation d'un logiciel propriétaire secret d'une société privée. Loomis, qui avait déjà des antécédents criminels et a été condamné pour s'être échappé de la police dans une voiture volée, affirme maintenant que son droit à une procédure a été violé car ni lui ni ses représentants n'ont pu examiner ou contester l'algorithme de recommandation.

Le rapport a été préparé par le logiciel Compas, qui est vendu par Notrpointe aux navires. Le programme incarne une nouvelle tendance dans la recherche sur l'IA: aider les juges à prendre de «meilleures» décisions (ou du moins davantage fondées sur des données) devant les tribunaux.

Bien que les détails spécifiques de l'affaire Loomis restent clos, il contient certainement des graphiques et des chiffres qui définissent la vie, le comportement et la probabilité d'une rechute de Loomis. Ceux-ci incluent l'âge, la race, l'identité de genre, les habitudes, l'historique du navigateur et certaines mesures du crâne. Personne ne sait plus précisément.

On sait que le procureur chargé de l'affaire a déclaré au juge que Loomis démontrait "un risque élevé de récidive, de violence, de procédures préliminaires". C'est la norme en matière de détermination de la peine. Le juge a accepté et a déclaré à Loomis que "Compas l'a identifié comme une personne à haut risque pour la société".

La Cour suprême du Wisconsin a condamné Loomis, ajoutant que le rapport Compas avait ajouté des informations précieuses à sa décision, mais a noté que sans lui, il avait prononcé la même peine. Bien sûr, vous ne pourrez pas vérifier cela avec certitude. Quels biais cognitifs peut-il y avoir lorsqu'un système «intelligent» omnipotent comme Compas est impliqué pour conseiller les juges sur ce qu'il faut faire?

Utilisation inconnue

Vidéo promotionelle:

Soyons honnêtes, il n'y a rien d '«illégal» dans ce que le tribunal du Wisconsin a fait - ce n'est qu'un exemple. D'autres tribunaux peuvent et feront de même.

Malheureusement, nous ne savons pas dans quelle mesure l'IA et d'autres algorithmes sont utilisés dans la détermination de la peine. On pense que certains tribunaux «testent» des systèmes comme Compas dans le cadre de procès à huis clos, mais ne peuvent revendiquer un partenariat. Il existe également une perception selon laquelle plusieurs startups d'IA développent de tels systèmes intelligents.

Image
Image

Cependant, l'utilisation de l'IA dans la législation ne commence ni ne se termine par une peine, elle commence par une enquête. Le Royaume-Uni a déjà développé le système VALCRI, qui effectue un travail analytique chronophage en quelques secondes - se faufilant parmi des tonnes de données telles que des textes, des rapports de laboratoire et des documents de police pour mettre en évidence des éléments qui pourraient nécessiter une enquête plus approfondie.

La police britannique des West Midlands testera VALCRI au cours des trois prochaines années en utilisant des données anonymes contenant plus de 6,5 millions d'enregistrements. Un test similaire est effectué par la police d'Anvers en Belgique. Cependant, dans le passé, les projets d'IA et d'apprentissage en profondeur impliquant des ensembles de données massifs ont posé problème.

Avantages pour quelques-uns

La technologie a fourni de nombreuses aides utiles aux salles d'audience, des photocopieuses à l'extraction d'ADN des empreintes digitales aux techniques de surveillance sophistiquées. Mais cela ne signifie pas que toute technologie est une amélioration.

Si l'utilisation de l'IA dans les enquêtes et les condamnations peut potentiellement faire gagner du temps et de l'argent, elle pose de graves problèmes. Un rapport Compas de ProPublica a clairement indiqué que les Noirs étaient considérés à tort par le programme comme étant plus récidivistes que les Blancs. Même les systèmes d'IA les plus sophistiqués peuvent hériter des préjugés raciaux et sexistes de ceux qui les créent.

De plus, quel est l'intérêt de déplacer la prise de décision (au moins partiellement) sur des problèmes propres aux humains sur un algorithme? Il y a une certaine difficulté aux États-Unis lorsque les jurys jugent leurs pairs. Les normes juridiques n'ont jamais été la référence, c'est pourquoi ces procès devant jury sont considérés comme les systèmes de condamnation les plus démocratiques et les plus efficaces. Nous faisons des erreurs, mais avec le temps, nous accumulons des connaissances sur la façon de ne pas les commettre, en affinant le système.

Les compas et les systèmes similaires représentent une boîte noire dans le système juridique. Il ne devrait pas y en avoir. Les systèmes juridiques dépendent de la continuité, de la transparence des informations et de la capacité de contrôle. La société ne veut pas d'un système qui encourage la course à la création de startups d'IA qui proposent des solutions rapides, bon marché et exclusives. Une IA créée à la hâte sera terrible.

Une version open source mise à jour de Compas serait une amélioration. Mais d'abord, les normes du système de justice devront être rehaussées avant de commencer à détourner la responsabilité des algorithmes.

ILYA KHEL

Recommandé: