L'IA Peut Changer Nos Vies Pour Toujours - Mais Nous Sommes Actuellement Sur Une Voie Sombre - Vue Alternative

L'IA Peut Changer Nos Vies Pour Toujours - Mais Nous Sommes Actuellement Sur Une Voie Sombre - Vue Alternative
L'IA Peut Changer Nos Vies Pour Toujours - Mais Nous Sommes Actuellement Sur Une Voie Sombre - Vue Alternative

Vidéo: L'IA Peut Changer Nos Vies Pour Toujours - Mais Nous Sommes Actuellement Sur Une Voie Sombre - Vue Alternative

Vidéo: L'IA Peut Changer Nos Vies Pour Toujours - Mais Nous Sommes Actuellement Sur Une Voie Sombre - Vue Alternative
Vidéo: #PsychOctober : Comment Naviguer dans la Souffrance ? [réflexions cliniques] 2024, Mai
Anonim

L'intelligence artificielle (IA) remodèle déjà le monde de manière visible. Les données sont le moteur de notre écosystème numérique mondial, et les technologies d'IA découvrent des modèles dans les données.

Les smartphones, les maisons intelligentes et les villes intelligentes influencent la façon dont nous vivons et interagissons, et les systèmes d'intelligence artificielle sont de plus en plus impliqués dans les décisions d'embauche, les diagnostics médicaux et les décisions. Que ce scénario soit utopique ou dystopique dépend de nous.

Les risques potentiels de l'IA sont énumérés à plusieurs reprises. Les robots tueurs et le chômage massif sont des problèmes courants, alors que certaines personnes craignent même l'extinction. Des projections plus optimistes affirment que l'IA ajoutera 15 billions de dollars à l'économie mondiale d'ici 2030 et nous conduira finalement à une sorte de nirvana social.

Nous devons certainement tenir compte de l’impact de ces technologies sur nos sociétés. Un problème majeur est que les systèmes d'IA renforcent les préjugés sociaux existants - avec un effet dévastateur.

Plusieurs exemples notoires de ce phénomène ont reçu une large attention: les systèmes modernes de traduction automatique et les systèmes de reconnaissance d'images.

Ces problèmes surviennent parce que ces systèmes utilisent des modèles mathématiques (tels que des réseaux de neurones) pour définir des modèles dans de grands ensembles de données d'apprentissage. Si ces données sont gravement déformées de diverses manières, les erreurs inhérentes seront inévitablement étudiées et reproduites par des systèmes formés.

Les technologies autonomes biaisées sont problématiques car elles peuvent potentiellement isoler des groupes tels que les femmes, les minorités ethniques ou les personnes âgées, exacerbant ainsi les déséquilibres sociaux existants.

Si les systèmes d'IA sont formés, par exemple, à partir des données d'arrestation de la police, alors tout préjugé conscient ou inconscient manifesté dans les programmes d'arrestation existants sera dupliqué par le système d'IA de «prévoyance policière» formé à partir de ces données.

Vidéo promotionelle:

Reconnaissant les graves implications de cette situation, diverses organisations réputées ont récemment recommandé que tous les systèmes d'intelligence artificielle soient formés sur des données objectives. Les lignes directrices éthiques publiées plus tôt en 2019 par la Commission européenne suggéraient la recommandation suivante:

Lorsque les données sont collectées, elles peuvent contenir des erreurs, des inexactitudes de construction sociale. Cela doit être résolu avant d'entraîner l'IA sur un ensemble de données.

Tout cela semble assez raisonnable. Malheureusement, il n'est parfois tout simplement pas possible de garantir l'impartialité de certains ensembles de données avant la formation. Un exemple concret devrait clarifier cela.

Tous les systèmes de traduction automatique modernes (tels que Google Translate) apprennent à partir de paires de phrases.

Le système anglo-français utilise des données qui relient les phrases anglaises ("she is tall") aux phrases françaises équivalentes ("elle est grande").

Il pourrait y avoir 500 millions de paires de ce type dans un ensemble de données d'entraînement donné, et donc seulement un milliard de phrases individuelles. Tous les préjugés sexistes doivent être supprimés de ce type d'ensemble de données si nous voulons empêcher la génération de résultats tels que les suivants dans le système:

La traduction française a été créée à l'aide de Google Traduction le 11 octobre 2019 et est incorrecte: "Ils" est un pluriel masculin en français et apparaît ici malgré le contexte indiquant clairement qu'il est référencé sur les femmes.

Il s'agit d'un exemple classique d'un système automatisé préférant le standard masculin par défaut en raison d'un biais dans les données d'entraînement.

Dans l'ensemble, 70% des pronoms génériques dans les ensembles de données de traduction sont masculins et 30% sont féminins. Cela est dû au fait que les textes utilisés à ces fins font plus souvent référence aux hommes qu'aux femmes.

Afin d'éviter de répéter les erreurs existantes du système de traduction, il serait nécessaire d'exclure des paires de phrases spécifiques des données afin que les pronoms masculin et féminin se rencontrent dans un rapport 50/50 des côtés anglais et français. Cela empêchera le système d'attribuer des probabilités plus élevées aux pronoms masculins.

Et même si le sous-ensemble de données résultant est entièrement équilibré entre les sexes, il sera toujours biaisé de diverses manières (par exemple, ethnique ou d'âge). En vérité, il serait difficile d'éliminer complètement toutes ces erreurs.

Si une personne ne consacre que cinq secondes à la lecture de chacune des un milliard de phrases des données d'entraînement à l'IA, il faudra 159 ans pour les tester toutes - et cela suppose la volonté de travailler toute la journée et la nuit, sans pause déjeuner.

Alternative?

Par conséquent, il n'est pas réaliste d'exiger que tous les ensembles de données d'entraînement soient impartiaux avant la construction des systèmes d'IA. Ces exigences de haut niveau supposent généralement que «AI» désigne un groupe homogène de modèles mathématiques et d'approches algorithmiques.

En fait, différentes tâches d'IA nécessitent des types de systèmes complètement différents. Et sous-estimer totalement cette diversité masque les vrais problèmes associés, par exemple, à des données très déformées. Ceci est regrettable car cela signifie que d'autres solutions au problème du biais des données sont négligées.

Par exemple, les biais dans un système de traduction automatique formé peuvent être considérablement réduits si le système est adapté après avoir été formé sur un vaste ensemble de données inévitablement biaisé.

Cela peut être fait en utilisant un ensemble de données beaucoup plus petit et moins brouillé. Par conséquent, la plupart des données peuvent être fortement biaisées, mais un système formé n'est pas nécessaire. Malheureusement, ces méthodes sont rarement discutées par ceux qui élaborent des lignes directrices et des cadres juridiques pour la recherche sur l'IA.

Si les systèmes d'IA ne font qu'exacerber les déséquilibres sociaux existants, ils sont plus susceptibles de décourager que de promouvoir un changement social positif. Si les technologies d'IA que nous utilisons de plus en plus au quotidien étaient beaucoup moins biaisées que nous, elles pourraient nous aider à reconnaître et à affronter nos propres préjugés cachés.

Bien sûr, c'est ce à quoi nous devons nous efforcer. Par conséquent, les concepteurs d'IA doivent réfléchir beaucoup plus attentivement aux implications sociales des systèmes qu'ils créent, tandis que ceux qui écrivent sur l'IA doivent comprendre de plus près comment les systèmes d'IA sont réellement conçus et construits.

Parce que si nous nous approchons vraiment soit d'une idylle technologique, soit d'une apocalypse, la première serait préférable.

Victoria Vetrova

Recommandé: