L'intelligence Artificielle Est-elle Toujours Objective Et Veut Plaire à Une Personne - Vue Alternative

Table des matières:

L'intelligence Artificielle Est-elle Toujours Objective Et Veut Plaire à Une Personne - Vue Alternative
L'intelligence Artificielle Est-elle Toujours Objective Et Veut Plaire à Une Personne - Vue Alternative

Vidéo: L'intelligence Artificielle Est-elle Toujours Objective Et Veut Plaire à Une Personne - Vue Alternative

Vidéo: L'intelligence Artificielle Est-elle Toujours Objective Et Veut Plaire à Une Personne - Vue Alternative
Vidéo: La prochaine révolution de l'Intelligence artificielle - Yann LeCun, à l'USI 2024, Mai
Anonim

Comment les ordinateurs prennent des décisions étranges

L'intelligence artificielle se développe si rapidement que beaucoup commencent à ressentir de l'anxiété: si elle sera bientôt capable d'éprouver des émotions et de prendre ses propres décisions. Qu'il s'agisse d'un robot, d'un véhicule autonome ou d'un décideur en affaires et en science: l'intelligence artificielle pénètre tous les domaines de notre vie et de notre société. Les cerveaux des machines sont considérés comme logiques, sans émotion et impartiaux, mais la pratique montre qu'ils ne décident pas toujours de tout avec un esprit ouvert.

Image
Image

L'intelligence artificielle est indispensable lorsqu'il est important de reconnaître des modèles dans de grandes quantités de données et de prendre des décisions en fonction de ceux-ci. Mais à l'avenir, les systèmes d'intelligence artificielle pourraient également être utilisés dans des domaines où notre bien-être et même nos vies dépendent directement des conclusions - en médecine, dans la sélection des emplois, l'octroi de prêts et la justice.

Dans quelle mesure l'intelligence artificielle prend-elle une décision objectivement et moralement correcte? Pouvons-nous vraiment faire confiance au cerveau de la machine pour prendre des décisions potentiellement importantes?

L'intelligence artificielle est utilisée dans tous les domaines

Même maintenant, les algorithmes adaptatifs sont utilisés dans de nombreux domaines de notre vie quotidienne. Il existe des assistants numériques pour comprendre les commandes vocales et les questions. Sur Internet, les robots Web aident à maintenir et à contrôler les sites Web afin qu'ils soient difficiles à distinguer des humains. Même lorsque de fausses nouvelles et des manipulations d'images sont détectées, des systèmes d'intelligence artificielle sont impliqués.

Vidéo promotionelle:

Image
Image

Les systèmes d'IA font également leur travail dans l'industrie, les entreprises et même le gouvernement. Ils optimisent et contrôlent les processus de production, régulent la logistique des ports de conteneurs et des grands entrepôts ou tiennent des registres comptables. Les compagnies d'assurance et les banques disposent déjà des premiers programmes intelligents pour vérifier les demandes soumises ou prendre des décisions sur les paiements. Chez Ikea, Deutsche Telekom et de nombreuses autres entreprises, l'UNICEF ou les bibliothèques, des assistants virtuels sont impliqués dans le service client.

Grande quantité de données traitées pour la formation

Tout cela est possible grâce à la capacité des systèmes d'IA à analyser rapidement d'énormes quantités de données, à identifier des modèles et des corrélations. Par exemple, l'algorithme apprend d'innombrables photos d'animaux avec des noms correspondants. Après une période de formation, le système peut sélectionner des photographies entièrement nouvelles des espèces souhaitées. Il reconnaît les différences par lui-même.

Image
Image

De nombreux autres systèmes d'IA utilisent le texte comme base d'apprentissage. Ils évaluent le contexte dans lequel se trouve un mot et étudient sa signification sémantique, ainsi que les relations avec des mots ou des synonymes similaires. Ces relations sémantiques traduisent les programmes en expressions mathématiques et apprennent ainsi des contextes sémantiques même complexes.

Ce n'est que grâce à cette capacité que l'intelligence artificielle peut, par exemple, évaluer des données médicales et des dossiers médicaux et en déduire les caractéristiques des tableaux cliniques. Sur la base de ces résultats, les systèmes d'IA sont déjà utilisés comme aides au diagnostic, ils peuvent reconnaître divers types de cancer, des signes de la maladie d'Alzheimer, des conditions suicidaires et des niveaux de sucre dangereux dans le diabète.

Mais aussi attrayant que cela puisse paraître, de plus en plus d'IA présente un gros inconvénient. Plus l'intelligence artificielle pénètre dans pratiquement toutes les sphères de notre société, plus grandes sont les conséquences potentielles de ses décisions. L'avenir financier ou professionnel d'une personne, voire sa vie, dépend de son jugement.

Des solutions d'IA qui peuvent coûter des vies

Par exemple, si une IA fait un diagnostic erroné en médecine sans être interrogée, le patient peut subir le mauvais traitement ou même mourir. L'armée utilise un système d'armes autonome qui prend les mauvaises décisions. Par exemple, l'IA ne peut pas distinguer un ami en fuite d'un ennemi, l'innocent meurt.

Image
Image

Les algorithmes d'IA sont déjà utilisés dans les tribunaux aux États-Unis. Ils prédisent la probabilité de récidive des délinquants devant les tribunaux. Leur évaluation influence souvent la décision du tribunal et, par conséquent, la peine du condamné.

Si AI décide des prêts

De même, une décision en matière de finance et d'assurance peut avoir une incidence sur le fait qu'une personne obtient un prêt ou non. Ces systèmes sont généralement formés à l'aide de bases de données.

Image
Image

Et ici, l'IA recherche des modèles: quelles personnes remboursent généralement leurs prêts et lesquelles ne le font pas? Il développe ses procédures d'évaluation et prend les décisions appropriées. En particulier, cela signifie que les personnes ayant le mauvais lieu de résidence ou d'occupation ne recevront pas de prêts, quel que soit le montant qu'elles sont disposées à payer, malgré ces circonstances.

Avec une telle répartition des responsabilités avec les ordinateurs, une personne ne sera qu'un assistant pour l'exécution des décisions des cyber-cerveaux. Et cela se produit déjà.

Qui est responsable des erreurs?

Autre problème dans le développement de l'IA: plus les principes de prise de décision sont complexes, plus il est difficile pour les humains de les comprendre. Cela soulève également la question de savoir qui est responsable des erreurs.

Les cas d'accidents lors de la conduite de voitures sur pilote automatique sont devenus plus fréquents: qui est à blâmer pour le fait que certaines situations ne sont pas stockées en mémoire ou que l'IA tire les mauvaises conclusions. Ou peut-être tire-t-il ses propres conclusions? Il existe déjà de tels exemples.

Les robots de jeu ont développé leurs propres règles pendant le jeu

Pour cette étude, les chercheurs ont permis à 100 robots intelligents d'interagir les uns avec les autres dans un jeu de concession. Chacun d'eux doit décider s'il donne quelque chose à quelqu'un de son équipe ou à un participant au jeu de l'extérieur.

Image
Image

Étonnamment, au fil du temps, les robots sont devenus de plus en plus exclus des groupes extérieurs et ne font des dons qu'aux membres de leur équipe.

Image
Image

La raison en est que les robots intelligents ont adapté leur stratégie de jeu, copiant le comportement des camarades qui ont récolté le plus d'argent et qui ont eu le plus de succès. Ainsi, des groupes de robots ont émergé qui se sont comportés de la même manière et ont systématiquement exclu les participants aux jeux non liés. Créant constamment quelque chose qui calcule, analyse et prend des décisions plus vite qu'elle, l'humanité perdra un jour le contrôle de sa création, dont elle ne pourra pas suivre les actions.

Selon les scientifiques, c'est évident: l'intelligence artificielle n'a pas besoin de données artificielles pour être biaisée, il suffit d'avoir d'autres machines autour d'elle. Parce que même cela peut créer un esprit de groupe connu des communautés humaines. Par conséquent, en utilisant l'IA, les gens devraient laisser la décision à eux-mêmes.

Vasilik Svetlana

Recommandé: