La Prolifération De L'IA Peut Conduire à Une Terrible Tragédie - Vue Alternative

Table des matières:

La Prolifération De L'IA Peut Conduire à Une Terrible Tragédie - Vue Alternative
La Prolifération De L'IA Peut Conduire à Une Terrible Tragédie - Vue Alternative

Vidéo: La Prolifération De L'IA Peut Conduire à Une Terrible Tragédie - Vue Alternative

Vidéo: La Prolifération De L'IA Peut Conduire à Une Terrible Tragédie - Vue Alternative
Vidéo: Ces maladies qui peuvent invalider votre permis de conduire 2024, Mai
Anonim

Désastre imminent

L'ancien directeur de la technologie du gouvernement israélien a récemment évoqué ses craintes que l'intelligence artificielle ne conduise à une tragédie plus grave que l'attaque terroriste aux États-Unis le 11 septembre 2001.

Plus il y aura de sphères de la vie publique sous le contrôle de l'intelligence artificielle, plus les gens auront d'influence qui pourront en prendre le contrôle.

Avertissement inquiétant

Lors d'un entretien avec le Jerusalem Post, Meltzer a avancé l'hypothèse intimidante selon laquelle dans un avenir de plus en plus high-tech et automatisé, les terroristes seront en mesure de pirater des millions de voitures afin de provoquer un accident de voiture unique qui fera d'innombrables victimes.

Il a également évoqué la possibilité théorique que les militaires mènent des opérations psychologiques qui pourraient faire tomber les économies des pays ou conduire à des émeutes.

Vidéo promotionelle:

Tristes conséquences

Selon Meltzer, la course aux armements dans l'intelligence artificielle entre les États-Unis, la Chine, la Russie et Israël signifie que les capacités techniques de l'intelligence artificielle augmentent si rapidement qu'elles dépassent le développement des libertés civiles et la capacité de la société à prévoir des conséquences dangereuses.

Et, néanmoins, il a exprimé l'espoir que les gouvernements de ces pays seront assez sages pour utiliser les capacités de l'intelligence artificielle à de bonnes fins.

Sergey "Avarron" Afanasiev

Recommandé: