Échec De La Raison: Pourquoi Les Gens Arrêtent De Croire Aux Faits - Vue Alternative

Échec De La Raison: Pourquoi Les Gens Arrêtent De Croire Aux Faits - Vue Alternative
Échec De La Raison: Pourquoi Les Gens Arrêtent De Croire Aux Faits - Vue Alternative

Vidéo: Échec De La Raison: Pourquoi Les Gens Arrêtent De Croire Aux Faits - Vue Alternative

Vidéo: Échec De La Raison: Pourquoi Les Gens Arrêtent De Croire Aux Faits - Vue Alternative
Vidéo: 12 Signes qui Montrent que tu es avec une Personne Fausse 2024, Avril
Anonim

La science a expliqué comment et pourquoi le cerveau humain refuse d'accepter la vérité. Compris par l'auteur du New Yorker Elizabeth Colbert.

En 1975, des scientifiques de Stanford ont invité un groupe d'étudiants à participer à une étude sur le suicide. On a montré aux participants quelques notes de suicide. Dans chaque paire, une note était fictive et l'autre a été écrite par un vrai suicide. On a demandé aux étudiants de faire la distinction entre les billets authentiques et les faux billets.

Certains étudiants ont découvert une capacité de génie dans cette tâche. Sur vingt-cinq paires de notes, ils ont correctement identifié la vraie vingt-quatre fois. D'autres ont montré un désespoir complet, identifiant une note authentique à seulement dix reprises.

Comme c'est souvent le cas dans la recherche psychologique, tout a été mis en scène. Alors que la moitié des notes étaient effectivement authentiques, les résultats rapportés aux participants étaient faux. Les étudiants à qui on a dit qu’ils avaient presque toujours raison n’ont pas donné de réponses beaucoup plus correctes que ceux à qui on a constamment signalé des erreurs.

Dans la deuxième phase de l'enquête, la supercherie a été découverte. On a dit aux étudiants que le véritable but de l'expérience était de déterminer leur réaction quant à savoir s'ils avaient raison ou tort. (Il s'est avéré que c'était aussi de la triche.) Enfin, on a demandé aux participants d'évaluer le nombre de notes de suicide qu'ils classaient correctement et le nombre de réponses correctes qu'ils pensaient que l'élève moyen pouvait donner. À ce moment, quelque chose de curieux s'est produit. Les étudiants du groupe «bons résultats» étaient convaincus qu'ils avaient assez bien réussi, nettement mieux que l'élève moyen - même s'ils venaient de se faire dire qu'il n'y avait aucune raison de le croire. À l'inverse, les personnes initialement affectées au groupe à faible score estimaient avoir fait beaucoup moins que l'élève moyen, une conclusion également non fondée.

«Les impressions une fois formées restent remarquablement stables», notent sèchement les chercheurs.

Quelques années plus tard, un nouveau groupe d'étudiants de l'Université de Stanford a été recruté pour une étude similaire. Les participants ont reçu une sélection d'informations sur deux pompiers - Frank K. et George H. Dans la biographie de Frank, entre autres, il a été rapporté qu'il avait une petite fille et qu'il aimait la plongée sous-marine. George avait un jeune fils et il jouait au golf. Il contenait également les réponses des hommes au test de choix risqué-conservateur. Dans une version des données, Frank était un pompier prospère qui, à en juger par les résultats des tests, a presque toujours choisi l'option la plus sûre. Dans une autre version, Frank a également préféré l'option la plus sûre, mais il était considéré comme un pompier sans valeur qui a reçu plus d'une fois des réprimandes de ses supérieurs.

Encore une fois, au milieu de l'étude, les étudiants ont été informés qu'ils avaient été induits en erreur et que les informations qu'ils avaient reçues étaient complètement fausses. On leur a ensuite demandé de décrire leurs propres croyances. Selon eux, que devrait avoir un pompier performant sur les risques? Les élèves du premier groupe ont estimé qu'il devait éviter les risques. Les élèves du deuxième groupe ont décidé qu'au contraire, il devait prendre des décisions risquées.

Vidéo promotionelle:

Même après les preuves «leurs croyances ont été complètement réfutées, les gens refusent de les reconsidérer», notent les chercheurs. Dans ce cas, le rejet était "particulièrement impressionnant" car les données brutes étaient insuffisantes pour tirer une conclusion générale.

Ces études sont désormais bien connues. L'affirmation d'un groupe de scientifiques selon laquelle les humains ne peuvent pas penser sainement dans les années 1970 était choquante. Plus maintenant. Des milliers d'expériences ultérieures ont confirmé (et affiné) cette conclusion. Tout étudiant peut démontrer que des personnes apparemment raisonnables se comportent souvent de manière complètement irrationnelle. Cependant, une question sérieuse demeure: comment en sommes-nous arrivés là?

Dans le nouveau livre, L'énigme de la raison, les scientifiques cognitifs Hugo Mercier et Dan Sperber ont tenté de répondre à cette question. Ils notent que l'esprit est un trait évolutif tel que la posture droite ou la vision tricolore. Il est originaire des savanes africaines et doit être replacé dans ce contexte.

Selon les scientifiques, le plus grand avantage des humains sur les autres espèces est notre capacité à coopérer. Il est difficile à organiser et presque aussi difficile à entretenir. Pour toute personne, utiliser une autre est toujours la meilleure activité. La raison ne nous est pas donnée pour résoudre des problèmes logiques abstraits ou pour nous aider à tirer des conclusions à partir de données inconnues; il est plutôt donné pour résoudre les problèmes qui surviennent au cours de la vie en équipe.

«La raison est une adaptation à une niche hypersociale que l'humanité développe pour elle-même», écrivent Mercier et Sperber. Les préjugés mentaux qui semblent étranges, loufoques ou tout simplement stupides d'un point de vue «intellectuel» semblent très équilibrés lorsqu'ils sont vus d'un point de vue social, «interactionniste».

Considérez le biais de confirmation, la tendance d'une personne à accepter des informations qui confirment ses croyances et à rejeter les informations qui les contredisent. Parmi les nombreuses formes de pensées erronées qui ont été découvertes, celle-ci est la mieux étudiée, avec une tonne de recherches qui y sont consacrées. L'une des expériences les plus célèbres a été réalisée à nouveau à Stanford. Les chercheurs ont réuni un groupe d'étudiants qui avaient des points de vue opposés sur la peine de mort. La moitié des étudiants étaient favorables et croyaient qu'elle prévenait le crime; l'autre moitié s'y est opposée, estimant qu'elle n'avait aucune influence sur le taux de criminalité.

Les étudiants ont été invités à étudier deux études. L'un a soutenu l'argument selon lequel la peine de mort dissuadait d'autres personnes de commettre des délits, tandis que l'autre a contesté cette logique. Les étudiants qui ont initialement soutenu la peine de mort ont donné une note élevée aux données sur les contraintes, et la deuxième étude n'a pas été convaincante. Les étudiants qui s'étaient initialement opposés à la peine de mort ont fait le contraire. À la fin de l'expérience, les participants ont été interrogés à nouveau sur leurs points de vue. Ceux qui ont commencé en faveur de la peine capitale la soutiennent encore plus, tandis que ceux qui s'y opposent sont encore plus hostiles.

Mercier et Sperber préfèrent le terme «biais myside». Ils croient que les gens ne font confiance à personne. Face aux arguments de quelqu'un, nous trouvons très habilement ses faiblesses. Et par rapport aux nôtres, nous sommes aveugles.

Une expérience récente menée par Mercier en collaboration avec des collègues européens démontre clairement cette asymétrie. Les participants ont dû résoudre un certain nombre de problèmes logiques simples. On leur a ensuite demandé d'expliquer leurs réponses et on leur a donné la possibilité de les changer s'ils remarquaient des erreurs. La plupart des participants étaient satisfaits de leur choix initial, seuls moins de 15% ont changé d'avis dans la deuxième étape.

Dans la troisième étape, on a montré aux participants l'un de ces problèmes, ainsi que leur réponse et la réponse d'un autre participant qui est arrivé à une conclusion différente. Une fois de plus, ils ont pu modifier leurs réponses. Mais une astuce a été faite: les réponses présentées comme si quelqu'un d'autre leur avait donné étaient en fait les leurs, et vice versa. Environ la moitié des participants ont compris ce qui se passait. D'autres sont soudainement devenus beaucoup plus critiques. Près de 60% ont refusé les réponses dont ils étaient auparavant satisfaits.

Ce biais, selon Mercier et Sperber, reflète la tâche de faire évoluer l'esprit - pour éviter les problèmes avec les autres membres du groupe. Vivant en petits groupes de chasseurs-cueilleurs, nos ancêtres étaient avant tout concernés par leur situation sociale. Ils ne voulaient pas être ceux qui risquaient leur vie à la chasse pendant que d'autres parcouraient la grotte. Il y avait peu d'avantage de bon sens, mais beaucoup pouvait être accompli avec des arguments décisifs.

Entre autres, nos ancêtres n'avaient pas à se soucier de l'effet dissuasif de la peine de mort et des qualités idéales des pompiers. Ils n'avaient pas non plus à traiter de recherches fabriquées, de fausses nouvelles ou de Twitter. Sans surprise, aujourd'hui, la raison nous fait souvent défaut. Comme l'écrivent Mercier et Sperber, «c'est l'un des nombreux cas où l'environnement a changé trop rapidement pour la sélection naturelle».

Le professeur Stephen Sloman de l'Université Brown et le professeur Philip Fernbach de l'Université du Colorado sont également des chercheurs en sciences cognitives. Eux aussi croient que la sociabilité est la clé des fonctions, ou peut-être plus approprié, des dysfonctionnements de l'esprit humain. Ils commencent leur livre, The Illusion of Knowledge: Why We Never Think Alone, en examinant les toilettes.

Dans une étude de l'Université de Yale, les étudiants ont été invités à évaluer leur compréhension des appareils quotidiens, y compris les toilettes, les fermetures à glissière et les serrures à cylindre. On leur a ensuite demandé d'écrire une explication détaillée étape par étape du fonctionnement de ces appareils et d'évaluer à nouveau leur propre compréhension. Apparemment, dans le processus, les étudiants ont pris conscience de leur propre ignorance, parce que leur estime de soi a chuté. (Il s'avère que les toilettes sont beaucoup plus compliquées qu'il n'y paraît.)

Broken et Fernbach voient cet effet, qu'ils appellent «l'illusion de l'apprentissage profond», presque partout. Les gens pensent qu'ils en savent beaucoup plus qu'ils ne le font vraiment. D'autres personnes nous permettent de le croire. Dans le cas des toilettes, quelqu'un les a conçues pour que je puisse les gérer facilement. C'est ce à quoi les gens ont excellé. Nous nous appuyons sur les connaissances de chacun depuis que nous avons appris à chasser ensemble - c'était probablement un événement clé dans notre histoire évolutive. Nous travaillons si bien ensemble, disent Sloman et Fernbach, que nous pouvons à peine dire où s'arrête notre propre compréhension et où commence celle de quelqu'un d'autre.

«L'une des conséquences du naturel avec lequel nous partageons le travail mental», écrivent-ils, «est l'absence de frontière nette entre les idées et les connaissances d'une personne et des autres membres du groupe».

Cette illimité, ou confusion, si vous voulez, compte également dans ce que nous considérons comme un progrès. Les gens, inventant de nouveaux outils pour un nouveau mode de vie, créaient simultanément de nouveaux royaumes d'ignorance. Si tout le monde insistait, disons, pour maîtriser les principes du travail du métal avant de fabriquer un couteau, l'âge du bronze ne serait pas une telle révolution.

Selon Sloman et Fernbach, cela pose de graves problèmes politiques. C'est une chose d'utiliser les toilettes sans savoir comment cela fonctionne, et c'en est une autre de préconiser (ou de s'opposer) à une interdiction d'immigration sans savoir de quoi on parle. Sloman et Fernbach citent des recherches de 2014 peu après l'annexion de la Crimée par la Russie. Il a été demandé aux répondants comment, à leur avis, les États-Unis devraient réagir et s'ils pouvaient identifier l'Ukraine sur la carte. Plus les répondants connaissaient mal la géographie, plus ils se prononcaient en faveur d'une intervention militaire. (Les participants avaient une si mauvaise idée de l'emplacement de l'Ukraine que la médiane des hypothèses s'étendait à dix-huit cents miles - la distance approximative de Kiev à Madrid.)

Sloman et Fernbach ont mené leur propre version de «l'expérience des toilettes», remplaçant les appareils électroménagers par une politique gouvernementale. Dans une étude de 2012, ils ont demandé aux gens s'ils avaient besoin d'un système à payeur unique pour les soins de santé ou d'un système de rémunération des enseignants fondé sur le mérite. On a demandé aux participants d'évaluer leurs positions en fonction de leur degré d'accord ou de désaccord avec les propositions. On leur a ensuite demandé d'expliquer - de manière aussi détaillée que possible - les implications de la mise en œuvre de chaque décision. À ce stade, la plupart des gens ont commencé à avoir des problèmes. Lors de la réévaluation de leurs points de vue, les participants étaient moins catégoriques en étant d'accord ou en désaccord.

Broken et Fernbach voient le résultat comme une lumière vacillante au bout du tunnel. Si nous - ou nos amis - passons moins de temps à prêcher et à essayer de mieux comprendre les implications des propositions politiques, nous verrons à quel point nous sommes ignorants et pouvons tempérer nos opinions. Ceci, écrivent-ils, «peut être la seule forme de pensée qui détruira l'illusion d'une connaissance profonde et changera les attitudes des gens dans la vie».

Il y a une vision qui considère la science comme un système qui corrige les inclinations naturelles des gens. Il n'y a pas de place pour les préjugés personnels dans un laboratoire bien géré; les résultats doivent être reproductibles dans d'autres laboratoires, par des chercheurs qui n'ont aucune raison de les confirmer. Et c'est pourquoi ce système a prouvé son succès. À tout moment, elle peut s'enliser dans l'intrigue, mais à la fin la méthodologie prévaudra. La science avance même lorsque nous sommes coincés.

Dans Denial to the Grave: Why We Ignore the Facts That Will Save Us, le psychiatre Jack Gorman et sa fille, Sarah Gorman, une professionnelle de la santé publique, explorent le fossé entre ce que dit la science et nos croyances. Ils font appel à une croyance persistante, qui est non seulement manifestement fausse mais potentiellement mortelle, que les vaccins sont dangereux. Ce qui est dangereux, c'est de ne pas se faire vacciner; c'est pourquoi les vaccins ont été créés. "La vaccination est l'un des triomphes de la médecine moderne", écrivent les Gormans. Mais peu importe combien la recherche scientifique affirme que les vaccins sont sûrs et qu'il n'y a aucun lien entre l'autisme et les vaccins, les utilisateurs d'anti-vaccins restent catégoriques. (Ils peuvent même appeler leur partisan - d'une certaine manière - Donald Trump, qui a déclaré que bien que son fils Barron ait été vacciné, ce n'était pas dans les délais.recommandé par les pédiatres.)

Les Gormans soutiennent également que les modes de pensée qui semblent maintenant être autodestructeurs peuvent à un moment donné être une méthode d'adaptation. Ils consacrent également de nombreuses pages au «biais de confirmation» qui, selon eux, a une composante physiologique. Ils citent des recherches qui suggèrent que les gens éprouvent un vrai plaisir - une ruée vers la dopamine - lorsqu'ils traitent des informations qui soutiennent leurs croyances. «C'est toujours agréable de plier notre ligne, même si nous nous trompons», disent-ils.

Les Gormans ne font pas que lister les illusions des gens; ils veulent les réparer. Il doit y avoir un moyen, affirment-ils, de convaincre les gens des avantages de la vaccination pour les enfants et des dangers des armes. (Une autre croyance courante mais statistiquement infondée qu'ils essaient de réfuter est que la possession d'une arme à feu vous protège.) Mais ici, ils rencontrent les mêmes problèmes. Fournir des informations précises ne semble pas aider. Faire appel à l'émotion peut fonctionner mieux, mais cela va à l'encontre de l'objectif de promotion de la science pure. «Le problème demeure», écrivent-ils à la fin de leur livre, «comment gérer les tendances qui conduisent à des idées fausses scientifiques».

L'énigme de l'esprit, l'illusion de la connaissance et le déni de la tombe ont été écrits avant les élections de novembre. Pourtant, ils ont anticipé l'ère de Kellianne Conway et l'aube des «faits alternatifs». Les défenseurs de la rationalité peuvent trouver une solution. Mais la littérature n'est pas encore encourageante.

Recommandé: