L'intelligence Artificielle S'est Avérée être Raciste - Vue Alternative

L'intelligence Artificielle S'est Avérée être Raciste - Vue Alternative
L'intelligence Artificielle S'est Avérée être Raciste - Vue Alternative

Vidéo: L'intelligence Artificielle S'est Avérée être Raciste - Vue Alternative

Vidéo: L'intelligence Artificielle S'est Avérée être Raciste - Vue Alternative
Vidéo: Pourquoi la reconnaissance faciale fait peur ? 2024, Mai
Anonim

Une étude menée par des scientifiques du Massachusetts Institute of Technology a révélé les détails du processus d'analyse des données par l'intelligence artificielle, souvent guidée par des stéréotypes sexistes et racistes dans la prise de décision. Plusieurs systèmes qui ont participé à l'expérience ont démontré une sensibilité aux préjugés humains.

Le journal britannique "The Daily Mail" écrit qu'après avoir reçu les résultats de l'étude, l'équipe de scientifiques s'est engagée à reprogrammer l'intelligence artificielle, éliminant les problèmes antérieurs. Selon Irene Chen, qui travaille au Massachusetts Institute of Technology, les informaticiens ont tendance à se précipiter pour conclure que la seule façon d'éliminer les éléments de racisme et de sexisme dans les algorithmes d'intelligence artificielle est d'améliorer le code. La qualité des algorithmes est directement proportionnelle aux données sur lesquelles ils opèrent. Les recherches de Chen avec David Sontag et Fredrik D. Johannson montrent que davantage de données disponibles peuvent radicalement changer les choses pour le mieux.

Dans une expérience, l'équipe a examiné un système qui prédisait le revenu d'une personne en fonction des informations disponibles. L'analyse a montré que dans 50% des cas, l'algorithme est enclin à prédire que le revenu d'une femme sera, en moyenne, inférieur à celui d'un homme. En multipliant par 10 la quantité de données disponibles, les scientifiques ont constaté que le facteur d'une telle erreur diminuait de 40%.

De plus, dans une étude du système utilisé dans les hôpitaux et qui prédit la survie des patients subissant une intervention chirurgicale sévère, la précision des prédictions était beaucoup plus faible pour la race mongoloïde que pour les Caucasiens et les Noirs. Cependant, les scientifiques affirment que l'utilisation de la technique d'analyse avancée peut réduire considérablement la précision des prévisions pour les patients n'appartenant pas à la race mongoloïde. Cela montre que davantage de données disponibles ne corrigent pas toujours les erreurs d'algorithme. Au lieu de cela, les scientifiques devraient recevoir plus d'informations sur les groupes discriminés.

La nouvelle méthode soulève une autre question pour les chercheurs en apprentissage automatique sur la manière d'analyser efficacement les données sans discrimination existante.

Comment fonctionne l'apprentissage automatique dans les systèmes alimentés par l'IA?

Les systèmes d'intelligence artificielle sont basés sur des réseaux de neurones artificiels (RNA), qui extrapolent les techniques de stockage d'informations et d'apprentissage utilisées par le cerveau humain aux systèmes mécaniques. Les ANN s'entraînent à trouver des modèles dans les sources d'informations disponibles, y compris la parole, le texte et les images. L'amélioration de la précision de l'analyse des données est l'une des conditions préalables fondamentales qui précèdent les derniers développements de l'intelligence artificielle.

L'intelligence artificielle "normale" utilise les données d'entrée pour informer l'algorithme du sujet de l'analyse, tout en fonctionnant avec une énorme quantité d'informations.

Vidéo promotionelle:

Les applications pratiques de l'apprentissage automatique incluent les services de traduction Google, la reconnaissance faciale à partir de photos Facebook et les filtres de Snapchat qui analysent les visages avant d'appliquer des effets visuels en ligne.

Le processus de saisie des données prend souvent du temps et est généralement limité par le flux d'informations sur un aspect de l'objet étudié. Un nouveau type d'ANN - un réseau neuronal antagoniste génératif - s'oppose aux capacités de deux robots différents dotés d'une intelligence artificielle à la fois, provoquant un système moins intelligent à apprendre aux dépens du second sans participation humaine. Cette technique améliore considérablement l'efficacité et la vitesse de l'apprentissage automatique tout en augmentant la qualité de l'analyse des données.

Oliy Kurilov

Recommandé: