¿Por qué los hechos no cambian nuestro pensamiento?

In Catalejo by Jose PeinadoLeave a Comment

Decía Keynes «Cuando los hechos cambian, yo cambio de opinión, ¿usted qué hace?». Este extenso e interesantísimo artículo en The New Yorker aborda lo complicado que resulta hacernos cambiar de opinión, incluso cuando los hechos demuestran que lo que pensamos es infundado o no tiene argumentos que lo sostengan. La dificultad de la gente para pensar con criterio explica mucha de las complejas situaciones políticas, económicas y sociales que vemos diariamente en el mundo. Para ver el original pincha aquí.

A continuación la traducción


En 1975 investigadores de Standford invitaron a un grupo de estudiantes a participar en un estudio sobre el suicidio. Se les mostraron notas de suicidio agrupadas en pares. En cada par, una nota había sido confeccionada ficticiamente por un individuo al azar, la otra se correspondía con una redactada por una persona real que se había suicidado. A los estudiantes se les pedía que distinguieran entre las falsas y verdaderas. Algunos de los estudiantes descubrieron que tenían talento para diferenciarlas; de veinticinco pares de notas, identificaron correctamente veinticuatro. Otros descubrieron que tenían poca esperanza de detectar las verdaderas; identificaron la nota real en sólo diez casos.

Como suele ser el caso de los estudios psicológicos, todo lo anterior era un montaje de los investigadores como punto de partida de otro fin. Aunque la mitad de las notas de suicidio eran verdaderas -se habían obtenido de la oficina del forense del condado de Los Ángeles-las calificaciones otorgadas a los estudiantes por el trabajo de detectarlas correctamente eran ficticias. Una primera conclusión para los investigadores fue que los estudiantes a los que se les dijo que casi siempre acertaban no eran, en promedio, más exigentes que aquellos a los que se les había dicho que estaban equivocados en la mayoría de sus pronósticos.

En la segunda fase del estudio se les reveló la finalidad real del estudio a los estudiantes. Se les dijo que el verdadero objetivo era medir en las respuestas su capacidad de pensar si ellos creían que estaban acertando o equivocándose. Se les pidió que estimaran cuántas notas de suicidio habían categorizado correctamente y por otro lado cuántas pensaban que un estudiante promedio acertaría. Llegados a este punto sucedió algo curioso. Los estudiantes del grupo que más acertaron dijeron que pensaban que, de hecho, habían acertado significativamente más que un estudiante promedio, aunque como se les había dicho, no tenían motivos para creer esto. Por el contrario, los que menos acertaron dijeron que pensaban que lo habían hecho mucho peor que el estudiante promedio, una conclusión igualmente infundada. «Una vez informados» observaron escuetamente los investigadores «las impresiones son notablemente perseverantes», en relación a que los individuos seguían pensando igual aunque una vez informados no tenían porqué seguir haciéndolo.

Unos años más tarde, un  nuevo grupo de estudiantes de Stanford fue seleccionado para un estudio relacionado con el anterior. Los estudiantes recibieron información sobre un par de bomberos, llamados Frank K. y George H. La biografía de Frank  decía, entre otras cosas, que tenía un bebe (una niña) y le gustaba bucear. George tenía un hijo pequeño y jugaba al golf. Las informaciones sobre ellos también incluían las respuestas de Frank y George al test que los investigadores denominaron Prueba de  Riesgo vs elección conservadora. De acuerdo a estos test, Frank fue un bombero exitoso que casi siempre eligió la opción más segura. En otra versión sobre el propio  Frank se decía por el contrario que siempre elegía la opción más segura, pero que era un bombero pésimo que había sido advertido por sus supervisores varias veces. Una vez más, a mitad del estudio, se comunicó a los participantes que la información recibida era ficticia. Se les pidió que describieran sus propias conclusiones. ¿Qué clase de actitud hacia el riesgo pensaban que tendría un bombero exitoso? Los estudiantes que habían recibido la información sobre la primera versión de Frank pensaron que él lo evitaría. Los estudiantes que recibieron la segunda versión de Frank  pensaron que lo abrazaría.

Incluso después de evidenciarles que «sus conclusiones habían sido totalmente refutadas, la gente no revisa adecuadamente esas creencias», señalaron los investigadores. En este caso, el fracaso fue «particularmente impresionante», ya que para los investigadores sólo dos versiones de datos nunca deberían haber sido suficiente información para generalizar.

Los estudios de Stanford se hicieron famosos. Viniendo de un grupo de académicos en los años setenta, la afirmación de que la gente no puede pensar con criterio fue impactante. Ya no lo es. Miles de experimentos posteriores han confirmado (y corroborado) este hallazgo. Como todos los que siguieron la investigación -o incluso ocasionalmente recogieron una copia del estudio Psychology Today– saben que cualquier estudiante graduado puede demostrar que las personas aparentemente razonables son a menudo totalmente irracionales. Extrañamente, esta idea parece más relevante hoy día. Aún así, nos queda un rompecabezas esencial: ¿Cómo llegamos a ser así?

En un nuevo libro, «El enigma de la razón» (Harvard), los científicos cognitivos Hugo Mercier y Dan Serber tratan de responder esta pregunta. Mercier, que trabaja en un instituto de investigación francés en Lyon, y Sperber, ahora con sede en la Universidad Central Europea, en Budapest, señalan que la razón es un rasgo evolucionado, como ser bípedos  o tener visión tricolor. Apareció en las sabanas de África y debe entenderse en ese contexto. Desprovisto de mucho de lo que podría llamarse ciencia cognitiva, el argumento de Mercier y Sperber es más o menos el siguiente: La mayor ventaja de los seres humanos sobre otras especies es nuestra capacidad de cooperar. La cooperación es difícil de establecer y casi más difícil mantener. Para cualquier individuo, ir por libre es siempre la mejor manera de actuar. La razón se desarrolló no para permitirnos resolver problemas abstractos, lógicos o incluso para ayudarnos a sacar conclusiones de datos desconocidos, sino que se desarrolló para resolver los problemas planteados para vivir en grupos de colaboración. «La razón es una adaptación al nicho hipersocial que los humanos han desarrollado por sí mismos», escriben Mercier y Sperber. Los hábitos de la mente que parecen extraños, torpes o sencillamente simples desde un punto de vista «intelectual» resultan brillantes cuando se ven desde una perspectiva social «interaccionista».
Consideremos lo que se conoce como «sesgo de confirmación», la tendencia de las personas a adoptar información que respalde sus creencias y rechace la información que las contradice. De las muchas formas de pensamiento defectuoso que se han identificado, el sesgo de confirmación está entre los mejor catalogados; es un tema que copa libros enteros  y multitud de experimentos. Uno de los (experimentos) más famosos fue llevado a cabo, una vez más, en Stanford. En esta ocasión, los investigadores reunieron a un grupo de estudiantes que tenían opiniones opuestas sobre la pena de muerte. La mitad de los estudiantes estaban a favor de ella y pensaron que disuadía el crimen.  La otra mitad estaba en contra y pensó que no tenía ningún efecto sobre el crimen. Se pidió a los estudiantes que respondieran a la información de dos estudios. Uno proporcionaba datos en apoyo del argumento de la disuasión y el otro datos que la cuestionaban. Ambos estudios -se lo puede imaginar- estaban confeccionados para presentar lo que, objetivamente hablando, eran estadísticas igualmente convincentes. Los estudiantes que originalmente habían apoyado la pena capital calificaron los datos pro-disuasorios altamente creíbles y los datos anti-disuasorios no convincentes. Los estudiantes que originalmente se habían opuesto a la pena de muerte hicieron lo contrario. Al final del experimento, se preguntó a los estudiantes una vez más acerca de sus puntos de vista. Aquellos que habían comenzado apoyando el castigo pro capital estaban ahora más a favor. Aquellos que se habían opuesto eran aún más hostiles a la pena de muerte.

Si la razón está diseñada para generar juicios sólidos, entonces es difícil concebir un defecto de diseño más serio que el sesgo de confirmación. Imagínense, sugieren Mercier y Sperber, un ratón que piensa de la manera que lo hacemos. Tal ratón, «inclinado a confirmar su creencia de que no hay gatos alrededor,» terminará siendo la cena. En la medida en que el sesgo de confirmación lleva a la gente a descartar evidencias de amenazas nuevas o subestimadas -el equivalente humano del gato a la vuelta de la esquina- es un rasgo que debería haber sido seleccionado como «no tener en cuenta». Mercier y Sperber argumentan que el hecho de que nosotros y el sesgo sobrevivamos, demuestra que debe tener alguna función adaptativa, y esa función  -afirman- está relacionada con nuestra «hipersociabilidad».
Mercier y Sperber prefieren el término «sesgo desde mi punto de vista.» Los seres humanos, señalan, no son crédulos al azar. Presentado con el argumento de otra persona, somos bastante expertos en detectar las debilidades de los demás. Casi invariablemente, las posiciones sobre las que estamos ciegos suelen ser las propias. Algo así como lo de «vemos la paja en el ojo ajeno y no la viga en el nuestro». Un experimento reciente realizado por Mercier y algunos colegas europeos demuestra claramente esta asimetría. Se pidió a los participantes que respondieran a una serie de problemas de razonamiento simples. Luego se les pidió que explicaran sus respuestas, y se les dio la oportunidad de modificarlas si identificaban errores. La mayoría estaba satisfecha con sus opciones originales; menos del quince por ciento cambiaron de opinión en el paso dos. En el paso tres, a los participantes se les mostró uno de los mismos problemas, junto con su respuesta y la respuesta de otro participante, que había llegado a una conclusión diferente. Una vez más, se les dio la oportunidad de cambiar sus respuestas. Pero se había jugado un truco: las respuestas que se les presentaban como las de otra persona eran en realidad suyas, y viceversa. Aproximadamente la mitad de los participantes se dieron cuenta de lo que estaba pasando. De la otra mitad, de repente la gente se volvió mucho más crítica. Casi el sesenta por ciento rechazó ahora las respuestas con las que antes se habían conformado.
 
Esta desigualdad, de acuerdo con Mercier y Sperber, refleja la tarea que la razón desarrolló para impedir que nos atorren los otros miembros de nuestro grupo. Viviendo en pequeñas bandas de cazadores-recolectores, nuestros antepasados estaban principalmente preocupados por su posición social, y con asegurarse de que no eran los que arriesgaban sus vidas en la caza, mientras otros estaban cómodamente en la cueva. Entre los muchos problemas de los que nuestros antepasados no se preocupaban estaban los efectos disuasivos de la pena de muerte y los atributos ideales de un bombero. Tampoco tenían que lidiar con estudios confeccionados a medida, noticias falsas o Twitter. No es de extrañar, pues, que hoy la razón a menudo nos falle. Como escriben Mercier y Sperber, «Este es uno de los muchos ejemplos en los que el mundo cambió demasiado rápido para que la selección natural se pusiera al día».
Steven Sloman, profesor de Brown, y Philip Fernbach, profesor de la Universidad de Colorado, también son científicos cognitivos. Ellos también creen que la sociabilidad es la clave de cómo funciona la mente humana o, quizás más pertinente, de los malfuncionamientos. Comienzan su libro, «La ilusión del conocimiento: ¿Por qué nunca pensamos solos» (Riverhead), con un vistazo a los inodoros. Prácticamente todo el mundo en los Estados Unidos -de hecho en todo el mundo desarrollado- está familiarizado con los baños. Un inodoro típico tiene un recipiente cerámico lleno de agua. Cuando el botón de la cisterna se presiona, el agua sale y empuja todo lo que tiene en su interior, pasa por la tubería y de ahí al sistema de alcantarillado. ¿Pero cómo sucede esto realmente?. En un estudio realizado en Yale, a los estudiantes de posgrado se les pidió que calificasen su comprensión de los dispositivos cotidianos, incluyendo aseos, conexiones y tuberías. A continuación se les pidió que escribieran detalladamente, explicando paso a paso cómo funcionan los dispositivos y así calificar nuevamente su comprensión. Aparentemente el esfuerzo reveló a los estudiantes su propia ignorancia, porque sus autoevaluaciones mermaron; al parecer los aseos resulta que son más complicados de lo que parece.
Sloman y Fernbach ven este efecto, que ellos llaman la «ilusión de profundidad explicativa«, casi en todas partes. La gente cree que sabe mucho más de lo que realmente hace. Lo que nos permite persistir en esta creencia es la de otras personas. En el caso de mi inodoro, alguien lo diseñó para que pueda usarlo fácilmente. Esto es algo en lo que los humanos son muy buenos. Hemos estado confiando en los conocimientos del otro desde que descubrimos cómo cazar juntos, lo cual fue probablemente un desarrollo clave en nuestra historia evolutiva. Tan bien colaboramos, argumentan Sloman y Fernbach, que apenas podemos decir dónde termina nuestro propio entendimiento y comienza el de los demás. «Una implicación de la naturalidad con la que dividimos el trabajo cognitivo», escriben, es que «no hay frontera definida entre las ideas y el conocimiento de una persona y  las de otros miembros» del grupo.

Esta falta de fronteras, o, si lo prefiere, confusión, también es crucial para lo que consideramos progreso. A medida que la gente inventaba nuevas herramientas para nuevas formas de vida, simultáneamente creaban nuevos reinos de ignorancia. Si todos hubieran insistido, por ejemplo, en dominar los principios del trabajo del metal antes de coger un cuchillo, la Edad de Bronce no habría trascendido mucho. Cuando se trata de nuevas tecnologías, la comprensión incompleta se potencia.
Donde nos metemos en problemas, según Sloman y Fernbach, está en el mundo de la política. Una cosa es limpiar un inodoro sin saber cómo funciona y otro posicionarse a favor (u oponerse) de una prohibición de inmigración sin saber de qué estoy hablando. Sloman y Fernbach citan una encuesta realizada en 2014, poco después de que Rusia anexó el territorio ucraniano de Crimea. Se preguntó a los encuestados cómo pensaban que los Estados Unidos debían reaccionar y también si podían identificar a Ucrania en un mapa. Cuanto más lejos estaban de la geografía, más proclives eran de favorecer la intervención militar. Los encuestados estaban tan inseguros de la ubicación de Ucrania que la suposición mediana estaba equivocada por mil doscientas millas, aproximadamente la distancia desde Kiev a Madrid. Las encuestas sobre muchos otros temas han producido resultados igualmente desalentadores. «Por regla general, los sentimientos fuertes sobre los temas no surgen de una comprensión profunda», escriben Sloman y Fernbach. Y aquí nuestra dependencia de otras mentes refuerza el problema. Si su posición sobre, digamos, la Ley de Atención Sanitaria a bajo coste es infundada y yo confío en ella, entonces mi opinión también es infundada. Cuando hablo con Tom y él decide que está de acuerdo conmigo, su opinión también es infundada, pero ahora que tres de nosotros coincidimos nos sentimos mucho más satisfechos con nuestras opiniones. Si ahora todos descartamos como poco convincente cualquier información que contradiga nuestra opinión, usted obtiene, bueno, la Administración Trump. 

«Así es como una comunidad de conocimiento puede llegar a ser peligrosa», observan Sloman y Fernbach. Los dos han realizado su propia versión del experimento del baño, sustituyendo la política pública por los aparatos domésticos. En un estudio realizado en 2012, pidieron a las personas su opinión sobre preguntas como: ¿Debería haber un sistema de atención de salud con un solo pagador? ¿O el pago basado en méritos? Se pidió a los participantes que calificaran sus posiciones dependiendo del grado de acuerdo o desacuerdo con las propuestas. A continuación, se les instruyó para que explicaran, con el mayor detalle posible, los impactos de la implementación de cada uno. La mayoría de la gente en este punto se encontró con problemas. Cuando se les preguntó una vez más para calificar sus puntos de vista, disminuyeron la intensidad, de modo que ambos estuvieron de acuerdo o discreparon menos vehementemente.

Sloman y Fernbach ven en este resultado una pequeña luz para un mundo oscuro. Si nosotros -o nuestros amigos o los expertos de la CNN- pasamos menos tiempo pontificando y tratando de trabajar con las implicaciones de las propuestas de política, nos daríamos cuenta de lo desorientados que estamos y moderaremos nuestras opiniones. Esto, escriben, «puede ser la única forma de pensar que destruirá la ilusión de profundidad explicativa y cambiará las actitudes de la gente».

Una manera de ver la ciencia es como un sistema que corrige las inclinaciones naturales de las personas. En un laboratorio bien gestionado, no hay lugar para el sesgo de los misterios. Los resultados tienen que ser reproducibles en otros laboratorios, por investigadores que no tienen ningún motivo para confirmarlos. Y esto, se podría argumentar, explica por qué el sistema ha demostrado ser tan exitoso. En cualquier momento dado, un campo puede estar dominado por disputas, pero, al final, prevalece la metodología. La ciencia avanza, incluso mientras permanecemos anclados en un lugar.

 Jack Gorman, psiquiatra, y su hija, Sara Gorman, un especialista en salud pública, investigan la brecha entre lo que la ciencia nos dice y lo que «nos decimos a nosotros mismos». Su preocupación radica en esas creencias persistentes que no sólo son falsas, sino también potencialmente mortales, como la convicción de que las vacunas son peligrosas. Por supuesto, lo que es peligroso es no estar vacunado; por eso se crearon las vacunas. «La inmunización es uno de los triunfos de la medicina moderna», observan los Gormans. Pero no importa cuántos estudios científicos lleguen a la conclusión de que las vacunas son seguras y que no hay vínculo entre las inmunizaciones y el autismo, los anti-vacunas permanecen inamovibles en sus posturas. Pueden ahora contar con Donald Trump, que ha dicho que, aunque él y su esposa tenían a su hijo Barron vacunado, se negaron a hacerlo según el cronograma recomendado por los pediatras. Los Gormans  sostienen que las maneras de pensar que ahora parecen autodestructivas deben en algún momento haber sido adaptables. Y ellos también dedican muchas páginas al sesgo de confirmación, que para ellos tiene un componente fisiológico. Citan investigaciones que sugieren que la gente experimenta placer genuino -una oleada de dopamina- al procesar información que respalda sus creencias. «Se siente bien aferrarse a ellas, incluso si estamos equivocados», observan.

Los Gormans no sólo quieren catalogar la forma en que nos equivocamos, quieren corregirlo. Debe haber alguna manera, mantienen, de convencer a la gente que las vacunas son buenas para los niños y las armas son peligrosas. Otra creencia difundida, pero estadísticamente insoportable, que les gustaría desacreditar es que poseer un arma te hace más seguro. Pero aquí se encuentran con los mismos problemas que han enumerado. Proporcionar a la gente información precisa no parece ayudar, simplemente lo descartan. Apelar a sus emociones puede funcionar mejor, pero hacerlo es obviamente antiético a la meta de promover la ciencia sana. «El reto que queda», escriben hacia el final de su libro, «es averiguar cómo abordar las tendencias que conducen a falsas creencias científicas».


Leave a Comment