Decía Keynes «Cuando los hechos cambian, yo cambio de opinión, ¿usted qué hace?». Este extenso e interesantísimo artículo en The New Yorker aborda lo complicado que resulta hacernos cambiar de opinión, incluso cuando los hechos demuestran que lo que pensamos es infundado o no tiene argumentos que lo sostengan. La dificultad de la gente para pensar con criterio explica mucha de las complejas situaciones políticas, económicas y sociales que vemos diariamente en el mundo. Para ver el original pincha aquí.
A continuación la traducción
En 1975 investigadores de Standford invitaron a un grupo de estudiantes a participar en un estudio sobre el suicidio. Se les mostraron notas de suicidio agrupadas en pares. En cada par, una nota había sido confeccionada ficticiamente por un individuo al azar, la otra se correspondía con una redactada por una persona real que se había suicidado. A los estudiantes se les pedía que distinguieran entre las falsas y verdaderas. Algunos de los estudiantes descubrieron que tenían talento para diferenciarlas; de veinticinco pares de notas, identificaron correctamente veinticuatro. Otros descubrieron que tenían poca esperanza de detectar las verdaderas; identificaron la nota real en sólo diez casos.
Como suele ser el caso de los estudios psicológicos, todo lo anterior era un montaje de los investigadores como punto de partida de otro fin. Aunque la mitad de las notas de suicidio eran verdaderas -se habían obtenido de la oficina del forense del condado de Los Ángeles-las calificaciones otorgadas a los estudiantes por el trabajo de detectarlas correctamente eran ficticias. Una primera conclusión para los investigadores fue que los estudiantes a los que se les dijo que casi siempre acertaban no eran, en promedio, más exigentes que aquellos a los que se les había dicho que estaban equivocados en la mayoría de sus pronósticos.
En la segunda fase del estudio se les reveló la finalidad real del estudio a los estudiantes. Se les dijo que el verdadero objetivo era medir en las respuestas su capacidad de pensar si ellos creían que estaban acertando o equivocándose. Se les pidió que estimaran cuántas notas de suicidio habían categorizado correctamente y por otro lado cuántas pensaban que un estudiante promedio acertaría. Llegados a este punto sucedió algo curioso. Los estudiantes del grupo que más acertaron dijeron que pensaban que, de hecho, habían acertado significativamente más que un estudiante promedio, aunque como se les había dicho, no tenían motivos para creer esto. Por el contrario, los que menos acertaron dijeron que pensaban que lo habían hecho mucho peor que el estudiante promedio, una conclusión igualmente infundada. «Una vez informados» observaron escuetamente los investigadores «las impresiones son notablemente perseverantes», en relación a que los individuos seguían pensando igual aunque una vez informados no tenían porqué seguir haciéndolo.
Unos años más tarde, un nuevo grupo de estudiantes de Stanford fue seleccionado para un estudio relacionado con el anterior. Los estudiantes recibieron información sobre un par de bomberos, llamados Frank K. y George H. La biografía de Frank decía, entre otras cosas, que tenía un bebe (una niña) y le gustaba bucear. George tenía un hijo pequeño y jugaba al golf. Las informaciones sobre ellos también incluían las respuestas de Frank y George al test que los investigadores denominaron Prueba de Riesgo vs elección conservadora. De acuerdo a estos test, Frank fue un bombero exitoso que casi siempre eligió la opción más segura. En otra versión sobre el propio Frank se decía por el contrario que siempre elegía la opción más segura, pero que era un bombero pésimo que había sido advertido por sus supervisores varias veces. Una vez más, a mitad del estudio, se comunicó a los participantes que la información recibida era ficticia. Se les pidió que describieran sus propias conclusiones. ¿Qué clase de actitud hacia el riesgo pensaban que tendría un bombero exitoso? Los estudiantes que habían recibido la información sobre la primera versión de Frank pensaron que él lo evitaría. Los estudiantes que recibieron la segunda versión de Frank pensaron que lo abrazaría.
Incluso después de evidenciarles que «sus conclusiones habían sido totalmente refutadas, la gente no revisa adecuadamente esas creencias», señalaron los investigadores. En este caso, el fracaso fue «particularmente impresionante», ya que para los investigadores sólo dos versiones de datos nunca deberían haber sido suficiente información para generalizar.
Los estudios de Stanford se hicieron famosos. Viniendo de un grupo de académicos en los años setenta, la afirmación de que la gente no puede pensar con criterio fue impactante. Ya no lo es. Miles de experimentos posteriores han confirmado (y corroborado) este hallazgo. Como todos los que siguieron la investigación -o incluso ocasionalmente recogieron una copia del estudio Psychology Today– saben que cualquier estudiante graduado puede demostrar que las personas aparentemente razonables son a menudo totalmente irracionales. Extrañamente, esta idea parece más relevante hoy día. Aún así, nos queda un rompecabezas esencial: ¿Cómo llegamos a ser así?
Si la razón está diseñada para generar juicios sólidos, entonces es difícil concebir un defecto de diseño más serio que el sesgo de confirmación. Imagínense, sugieren Mercier y Sperber, un ratón que piensa de la manera que lo hacemos. Tal ratón, «inclinado a confirmar su creencia de que no hay gatos alrededor,» terminará siendo la cena. En la medida en que el sesgo de confirmación lleva a la gente a descartar evidencias de amenazas nuevas o subestimadas -el equivalente humano del gato a la vuelta de la esquina- es un rasgo que debería haber sido seleccionado como «no tener en cuenta». Mercier y Sperber argumentan que el hecho de que nosotros y el sesgo sobrevivamos, demuestra que debe tener alguna función adaptativa, y esa función -afirman- está relacionada con nuestra «hipersociabilidad».
Esta falta de fronteras, o, si lo prefiere, confusión, también es crucial para lo que consideramos progreso. A medida que la gente inventaba nuevas herramientas para nuevas formas de vida, simultáneamente creaban nuevos reinos de ignorancia. Si todos hubieran insistido, por ejemplo, en dominar los principios del trabajo del metal antes de coger un cuchillo, la Edad de Bronce no habría trascendido mucho. Cuando se trata de nuevas tecnologías, la comprensión incompleta se potencia. Donde nos metemos en problemas, según Sloman y Fernbach, está en el mundo de la política. Una cosa es limpiar un inodoro sin saber cómo funciona y otro posicionarse a favor (u oponerse) de una prohibición de inmigración sin saber de qué estoy hablando. Sloman y Fernbach citan una encuesta realizada en 2014, poco después de que Rusia anexó el territorio ucraniano de Crimea. Se preguntó a los encuestados cómo pensaban que los Estados Unidos debían reaccionar y también si podían identificar a Ucrania en un mapa. Cuanto más lejos estaban de la geografía, más proclives eran de favorecer la intervención militar. Los encuestados estaban tan inseguros de la ubicación de Ucrania que la suposición mediana estaba equivocada por mil doscientas millas, aproximadamente la distancia desde Kiev a Madrid. Las encuestas sobre muchos otros temas han producido resultados igualmente desalentadores. «Por regla general, los sentimientos fuertes sobre los temas no surgen de una comprensión profunda», escriben Sloman y Fernbach. Y aquí nuestra dependencia de otras mentes refuerza el problema. Si su posición sobre, digamos, la Ley de Atención Sanitaria a bajo coste es infundada y yo confío en ella, entonces mi opinión también es infundada. Cuando hablo con Tom y él decide que está de acuerdo conmigo, su opinión también es infundada, pero ahora que tres de nosotros coincidimos nos sentimos mucho más satisfechos con nuestras opiniones. Si ahora todos descartamos como poco convincente cualquier información que contradiga nuestra opinión, usted obtiene, bueno, la Administración Trump.
«Así es como una comunidad de conocimiento puede llegar a ser peligrosa», observan Sloman y Fernbach. Los dos han realizado su propia versión del experimento del baño, sustituyendo la política pública por los aparatos domésticos. En un estudio realizado en 2012, pidieron a las personas su opinión sobre preguntas como: ¿Debería haber un sistema de atención de salud con un solo pagador? ¿O el pago basado en méritos? Se pidió a los participantes que calificaran sus posiciones dependiendo del grado de acuerdo o desacuerdo con las propuestas. A continuación, se les instruyó para que explicaran, con el mayor detalle posible, los impactos de la implementación de cada uno. La mayoría de la gente en este punto se encontró con problemas. Cuando se les preguntó una vez más para calificar sus puntos de vista, disminuyeron la intensidad, de modo que ambos estuvieron de acuerdo o discreparon menos vehementemente.
Sloman y Fernbach ven en este resultado una pequeña luz para un mundo oscuro. Si nosotros -o nuestros amigos o los expertos de la CNN- pasamos menos tiempo pontificando y tratando de trabajar con las implicaciones de las propuestas de política, nos daríamos cuenta de lo desorientados que estamos y moderaremos nuestras opiniones. Esto, escriben, «puede ser la única forma de pensar que destruirá la ilusión de profundidad explicativa y cambiará las actitudes de la gente».
Una manera de ver la ciencia es como un sistema que corrige las inclinaciones naturales de las personas. En un laboratorio bien gestionado, no hay lugar para el sesgo de los misterios. Los resultados tienen que ser reproducibles en otros laboratorios, por investigadores que no tienen ningún motivo para confirmarlos. Y esto, se podría argumentar, explica por qué el sistema ha demostrado ser tan exitoso. En cualquier momento dado, un campo puede estar dominado por disputas, pero, al final, prevalece la metodología. La ciencia avanza, incluso mientras permanecemos anclados en un lugar.
Los Gormans no sólo quieren catalogar la forma en que nos equivocamos, quieren corregirlo. Debe haber alguna manera, mantienen, de convencer a la gente que las vacunas son buenas para los niños y las armas son peligrosas. Otra creencia difundida, pero estadísticamente insoportable, que les gustaría desacreditar es que poseer un arma te hace más seguro. Pero aquí se encuentran con los mismos problemas que han enumerado. Proporcionar a la gente información precisa no parece ayudar, simplemente lo descartan. Apelar a sus emociones puede funcionar mejor, pero hacerlo es obviamente antiético a la meta de promover la ciencia sana. «El reto que queda», escriben hacia el final de su libro, «es averiguar cómo abordar las tendencias que conducen a falsas creencias científicas».