L'intelligence Artificielle Ne Sera Dangereuse Que Si Elle Est Utilisée Bêtement - Vue Alternative

Table des matières:

L'intelligence Artificielle Ne Sera Dangereuse Que Si Elle Est Utilisée Bêtement - Vue Alternative
L'intelligence Artificielle Ne Sera Dangereuse Que Si Elle Est Utilisée Bêtement - Vue Alternative

Vidéo: L'intelligence Artificielle Ne Sera Dangereuse Que Si Elle Est Utilisée Bêtement - Vue Alternative

Vidéo: L'intelligence Artificielle Ne Sera Dangereuse Que Si Elle Est Utilisée Bêtement - Vue Alternative
Vidéo: La prochaine révolution de l'Intelligence artificielle - Yann LeCun, à l'USI 2024, Mai
Anonim

La technologie est basée sur une amélioration continue au fil du temps. Au fur et à mesure que la technologie progresse, l'humanité est entraînée avec elle. Cependant, il existe une certaine peur qui entoure des technologies comme l'intelligence artificielle (IA) et la robotique, en partie à cause de la façon dont elles sont décrites dans la science-fiction. Cette peur, cependant, est une peur de l'inconnu. Dans l'ensemble, l'humanité ne sait pas ce qui se passera avec la poursuite de l'amélioration des systèmes d'intelligence artificielle.

L'approche de la singularité technologique - l'une des conséquences de ces améliorations - est également fortement influencée par la science-fiction. On pense que l'IA et les machines intelligentes deviendront si intelligentes qu'elles se rebelleront contre leurs patrons humains et mettront fin au monde tel que nous le connaissons. Nous ne savons pas si cela se produira réellement, bien que certaines institutions travaillent activement dans ce sens.

Mais peut-être que la peur la plus immédiate de l'IA et des systèmes automatisés vient des humains qui s'attendent à des pertes d'emplois et au déplacement ultérieur de travailleurs humains par des travailleurs robotiques. Certaines études montrent qu'une automatisation accrue entraînera une baisse de l'emploi au cours des 10 à 20 prochaines années.

Une étude prédit que les voitures remplaceront 47% des emplois aux États-Unis. Une autre étude indique que 40% des emplois disparaîtront au Canada et 850 000 au Royaume-Uni, tandis que 137 millions de travailleurs en Asie du Sud-Est risquent de perdre leur emploi à cause des voitures au cours des 20 prochaines années. Cette tendance couvrira une gamme d'industries.

De quoi as-tu vraiment peur?

Avec tout cela à l'esprit, avons-nous à juste titre peur de l'IA?

Bref, oui, il y a de quoi s'inquiéter. Mais l'inquiétude concerne davantage la façon dont nous utilisons l'IA, déclare Steve Ranger, rédacteur en chef de ZD Net. «L'IA est une niche à croissance rapide et intrigante», écrit Ranger. "Mais le problème est très profond."

Vidéo promotionelle:

Le ranger met en garde contre l'incapacité de l'industrie à lutter contre l'IA, ce qui pourrait potentiellement déclencher un autre hiver de l'IA. Il écrit:

"Le manque d'employés qualifiés qui utiliseront la plupart de ces technologies, ainsi que des attentes massivement gonflées, peuvent conduire à une perte de confiance."

De plus, le danger demeure que nous considérions l'IA comme une réponse magique à toutes les questions, en négligeant le fait que l'IA et les algorithmes d'apprentissage automatique ne sont aussi bons que les données qu'ils utilisent. Le Ranger dit qu '"il faut s'assurer que les décisions de l'IA sont bien comprises". Il considère qu'il s'agit de la plus grande menace de l'IA. Nous cessons progressivement de comprendre comment l'IA prend ses décisions et pourquoi. Nous devrons nous assurer que nous adhérons à cinq principes de base de l'IA:

- responsabilité (une personne doit être capable de faire face aux conséquences du travail d'IA);

- Explicabilité (la capacité d'expliquer facilement les décisions que prend l'IA aux personnes qui travaillent avec elle);

- précision (capacité à retracer les erreurs jusqu'à leurs sources);

- la vérifiabilité (les tiers doivent pouvoir visualiser facilement le comportement de l'IA);

- équité (l'IA ne doit pas faire l'objet de préjugés humains ou de discrimination).

En fin de compte, la plus grande menace pour l'humanité n'est pas l'IA. C'est ainsi que nous travaillons avec lui. Nous n'avons pas à nous soucier de l'intelligence artificielle et de l'apprentissage automatique, mais des lacunes de l'intelligence humaine et de notre capacité à apprendre.

Surveiller et observer

Heureusement, des institutions ont déjà été créées et élaborent des lignes directrices pour la recherche et le développement en IA. Il y a le partenariat d'intelligence artificielle, qui comprend des poids lourds comme Amazon, Google, IBM, Facebook, Microsoft et Apple. Un autre est le AI Fund, qui est géré par la Knight Foundation.

Les avantages de l'IA sont indéniables, et nous n'avons pas à attendre 2047 et la singularité pour comprendre comment elle affectera la vie des gens. Les systèmes d'intelligence artificielle modernes ne doivent pas être confondus avec Skynet et HAL-9000. Une grande partie de ce que nous appelons l'intelligence artificielle aujourd'hui sont des réseaux de neurones et des algorithmes d'apprentissage automatique qui fonctionnent dans des appareils conventionnels. Lorsqu'elle est utilisée correctement, l'intelligence artificielle peut aider les gens à conserver leur emploi, à réduire les accidents de voiture et à améliorer la médecine. Nos craintes ne peuvent l'emporter sur ces avantages.

ILYA KHEL

Recommandé: