Se entiende por preconceptos las opiniones y creencias que mantenemos con anterioridad a la información recibida y que influye sobre ésta dirigiendo nuestro modo de percibir, interpretar y recordar la información que llega a nosotros.
“M. Rothbert y P. Virrey solicitaron a estudiantes universitarios que evaluaran la expresión facial de un hombre. Los estudiantes que fueron advertidos de que era un líder de la GESTAPO, responsable de experimentos médicos con prisioneros de los campos de concentración, juzgaron su expresión como cruel. Quienes fueron informados de que era un líder del movimientos antinazi clandestino, cuyo heroísmo había salvado a miles de judíos, juzgaron que su expresión era cálida y amable.”
Por su parte, Robert Vallone, Lee Ross y Mark Lepper (1985), proyectaron trozos de noticias televisivas en los cuales se veían las matanzas de Beirut, en 1982, que ocurrieron en dos campos de refugiados del Líbano, a grupos de estudiantes pro palestinos y pro judíos. Cada bando opinó que el enfoque de las noticias que se les daba era tendencioso respecto a su postura.
El efecto de las preconcepciones puede llevar a considerar absolutamente inválidas cualquier evidencia en contra de nuestras creencias. A éste fenómeno se le denomina Perseverancia en la Creencia, y su efecto puede conlleva que sólo se acepte la evidencia favorable a nuestra creencia, mientras que se deseche la desfavorable.
Ross, Lepper y Charles Lord (1979). Pusieron en conocimiento de jóvenes de la Universidad de Stanford, la mitad de los cuales favorecía la pena de muerte y la otra mitad la rechazaba, dos pretendidos trabajos de investigación. Uno confirmaba y el otro invalidaba, las opiniones que tenían los estudiantes acerca de la eficacia de la pena capital como elemento de disuasión del crimen. En cada uno de los grupos se acepto de inmediato el informe con las pruebas que respaldaban su creencia, pero formularon críticas mordaces al informe que iba contra sus preconcepciones. Lo significativo de la experiencia es que ambos grupos salieron pensando que había mayor evidencia científica de su postura, en vez de pensar que los datos eran controvertidos. Simplemente ignoraron la evidencia del estudio en contra y tomaron únicamente como válido el que respaldaba su postura.
En sintonía con lo anterior se puede predecir cuál será el resultado de los debates televisivos que realizan los políticos en tiempos de elección: los que ya son partidarios de uno de ellos reforzarán su opinión a favor. Y así, “Con un margen cercano al 10 a 1, quienes ya estaban a favor de un candidato u otro en los debates de 1960, 1976 y 1980, percibieron a su candidato como el ganador (Zinder y Sear 1985). Geoffrey Munro y sus colegas (1997) observaron el mismo fenómeno en el primer debate presidencial de 1996 entre y encontraron también que tanto “clintonistas” como “doleistas”, informaron haberse tornado aún más partidarios de su candidato después de observar el debate.”
Más aún, incluso aunque toda la información relevante y racional sobre el tema en cuestión sea desfavorable, el fenómeno de perseverancia en la creencia, puede hacer que nos aferremos desesperadamente a nuestras creencias.
Existe todo un grupo de experimentos, debidos a Lee Ross, Craig Anderson y colaboradores, que muestran este aspecto.
Se comienzan los experimentos estableciendo una creencia en el sujeto, por ejemplo informándole de que algo es una pura verdad, v.g. “existen un relación entre la cantidad de crímenes que se producen en los barrios de la ciudad y las bocas de incendio que hay en cada barrio”.
Posteriormente se pregunta a los sujetos por qué ocurre eso, es decir por qué es verdad. Después se informa al sujeto de que los datos iniciales eran falsos, que se habían ideado para realizar el experimento, y que incluso a la mitad de los participantes del experimento se les había dicho, como presunta verdad, lo contrario que a ellos.
Pero sin embargo, la nueva creencia que se les había comunicado se mantenía como cierta por 75% de individuos, justificando su validez en las explicaciones que acababan de inventar para justificarlas.
En una nueva experiencia Anderson, Lepper y Ross (1980) dispusieron de dos grupos de personas. Al primer grupo le ofrecieron casos concretos donde un bombero, inclinado al riesgo, resultaba un excelente bombero, y casos en los que otro bombero, cauto éste, fracasaba. Al otro grupo se les expusieron casos que demostraban lo contrario. Después que cada grupo formara su opinión, a saber, que el arrojado resulta mejor o peor bombero, se pidió a esas personas que escribieran las explicaciones que se les habían ocurrido al respecto, es decir que justificaran racionalmente la opinión adquirida. Una vez que los grupos hacían esto, ya era inútil intentarles hacerles cambiar de opinión, aunque se les informase de todo el experimento.
El fenómeno de la perseverancia en la creencia no dice que sea imposible que cambiemos nuestras creencias. Más bien quiere indicar que la evidencia necesaria para que formemos creencias es mucho menor de la evidencia necesaria para que posteriormente la cambiemos, y tan es así que, aunque haya gran evidencia en contra, incluso más de la que había cuando formamos nuestra creencia, nos resistimos a cambiarla.
La perseverancia en la creencia es un fenómeno del que no están excluidos ni siquiera las personas que tienen a gala dejarse llevar por la racionalidad más estricta, como filósofos y científicos, y así es común afirmar de ambos que las preconcepciones que tienen guían las teorías que mantienen, incluso aunque se muestren erróneas.
Con todo existe un modo de paliar el fenómeno de la perseverancia en la creencia: intentar explicarse uno mismo la teoría opuesta.
Se ha comprobado, una y otra vez, que el hecho de hacer que el sujeto intente dar explicaciones de la teoría opuesta a la que él mantiene, es decir, el hecho de que busque razones que avalen la teoría opuesta, sirve de contrapeso al fenómeno de la perseverancia en la creencia.
En ocasiones de lo que se trata es de conseguir que el sujeto tome en serio la posibilidad de que su teoría no sea cierta, para conseguir eso se trata de que imagine qué cosas harían cierta la teoría opuesta.
Charles Lord, Mark Lepper y Elizabeth Preston (1984). Repitieron el estudio de la pena de muerte, es decir dos grupos, unos a favor y otros en contra, a los que se les suministra dos estudios sobre los efectos de la pena de muerte, un estudio a favor otro en contra de sus resultados como inhibidores de delitos, el resultado es que los estudios que se oponían a la preconcepción fue despreciado. Pero al repetirlo agregaron dos variantes, en la primera pidieron a los sujetos que fueran tan objetivos y equitativos como fuese posible; esta variante no sirvió de nada y las personas fueron tan tendenciosas como si no se les hubiera dicho nada. En la otra variante se les pidió que dijesen cual habría sido su posición respecto a la pena de muerte si el estudio que tomaron como válido hubiera dicho lo contrario. Bajo esta condición los estudiantes se mostraron menos reacios a mantener la imposibilidad de estudios en contra de sus ideas.
“M. Rothbert y P. Virrey solicitaron a estudiantes universitarios que evaluaran la expresión facial de un hombre. Los estudiantes que fueron advertidos de que era un líder de la GESTAPO, responsable de experimentos médicos con prisioneros de los campos de concentración, juzgaron su expresión como cruel. Quienes fueron informados de que era un líder del movimientos antinazi clandestino, cuyo heroísmo había salvado a miles de judíos, juzgaron que su expresión era cálida y amable.”
Por su parte, Robert Vallone, Lee Ross y Mark Lepper (1985), proyectaron trozos de noticias televisivas en los cuales se veían las matanzas de Beirut, en 1982, que ocurrieron en dos campos de refugiados del Líbano, a grupos de estudiantes pro palestinos y pro judíos. Cada bando opinó que el enfoque de las noticias que se les daba era tendencioso respecto a su postura.
El efecto de las preconcepciones puede llevar a considerar absolutamente inválidas cualquier evidencia en contra de nuestras creencias. A éste fenómeno se le denomina Perseverancia en la Creencia, y su efecto puede conlleva que sólo se acepte la evidencia favorable a nuestra creencia, mientras que se deseche la desfavorable.
Ross, Lepper y Charles Lord (1979). Pusieron en conocimiento de jóvenes de la Universidad de Stanford, la mitad de los cuales favorecía la pena de muerte y la otra mitad la rechazaba, dos pretendidos trabajos de investigación. Uno confirmaba y el otro invalidaba, las opiniones que tenían los estudiantes acerca de la eficacia de la pena capital como elemento de disuasión del crimen. En cada uno de los grupos se acepto de inmediato el informe con las pruebas que respaldaban su creencia, pero formularon críticas mordaces al informe que iba contra sus preconcepciones. Lo significativo de la experiencia es que ambos grupos salieron pensando que había mayor evidencia científica de su postura, en vez de pensar que los datos eran controvertidos. Simplemente ignoraron la evidencia del estudio en contra y tomaron únicamente como válido el que respaldaba su postura.
En sintonía con lo anterior se puede predecir cuál será el resultado de los debates televisivos que realizan los políticos en tiempos de elección: los que ya son partidarios de uno de ellos reforzarán su opinión a favor. Y así, “Con un margen cercano al 10 a 1, quienes ya estaban a favor de un candidato u otro en los debates de 1960, 1976 y 1980, percibieron a su candidato como el ganador (Zinder y Sear 1985). Geoffrey Munro y sus colegas (1997) observaron el mismo fenómeno en el primer debate presidencial de 1996 entre y encontraron también que tanto “clintonistas” como “doleistas”, informaron haberse tornado aún más partidarios de su candidato después de observar el debate.”
Más aún, incluso aunque toda la información relevante y racional sobre el tema en cuestión sea desfavorable, el fenómeno de perseverancia en la creencia, puede hacer que nos aferremos desesperadamente a nuestras creencias.
Existe todo un grupo de experimentos, debidos a Lee Ross, Craig Anderson y colaboradores, que muestran este aspecto.
Se comienzan los experimentos estableciendo una creencia en el sujeto, por ejemplo informándole de que algo es una pura verdad, v.g. “existen un relación entre la cantidad de crímenes que se producen en los barrios de la ciudad y las bocas de incendio que hay en cada barrio”.
Posteriormente se pregunta a los sujetos por qué ocurre eso, es decir por qué es verdad. Después se informa al sujeto de que los datos iniciales eran falsos, que se habían ideado para realizar el experimento, y que incluso a la mitad de los participantes del experimento se les había dicho, como presunta verdad, lo contrario que a ellos.
Pero sin embargo, la nueva creencia que se les había comunicado se mantenía como cierta por 75% de individuos, justificando su validez en las explicaciones que acababan de inventar para justificarlas.
En una nueva experiencia Anderson, Lepper y Ross (1980) dispusieron de dos grupos de personas. Al primer grupo le ofrecieron casos concretos donde un bombero, inclinado al riesgo, resultaba un excelente bombero, y casos en los que otro bombero, cauto éste, fracasaba. Al otro grupo se les expusieron casos que demostraban lo contrario. Después que cada grupo formara su opinión, a saber, que el arrojado resulta mejor o peor bombero, se pidió a esas personas que escribieran las explicaciones que se les habían ocurrido al respecto, es decir que justificaran racionalmente la opinión adquirida. Una vez que los grupos hacían esto, ya era inútil intentarles hacerles cambiar de opinión, aunque se les informase de todo el experimento.
El fenómeno de la perseverancia en la creencia no dice que sea imposible que cambiemos nuestras creencias. Más bien quiere indicar que la evidencia necesaria para que formemos creencias es mucho menor de la evidencia necesaria para que posteriormente la cambiemos, y tan es así que, aunque haya gran evidencia en contra, incluso más de la que había cuando formamos nuestra creencia, nos resistimos a cambiarla.
La perseverancia en la creencia es un fenómeno del que no están excluidos ni siquiera las personas que tienen a gala dejarse llevar por la racionalidad más estricta, como filósofos y científicos, y así es común afirmar de ambos que las preconcepciones que tienen guían las teorías que mantienen, incluso aunque se muestren erróneas.
Con todo existe un modo de paliar el fenómeno de la perseverancia en la creencia: intentar explicarse uno mismo la teoría opuesta.
Se ha comprobado, una y otra vez, que el hecho de hacer que el sujeto intente dar explicaciones de la teoría opuesta a la que él mantiene, es decir, el hecho de que busque razones que avalen la teoría opuesta, sirve de contrapeso al fenómeno de la perseverancia en la creencia.
En ocasiones de lo que se trata es de conseguir que el sujeto tome en serio la posibilidad de que su teoría no sea cierta, para conseguir eso se trata de que imagine qué cosas harían cierta la teoría opuesta.
Charles Lord, Mark Lepper y Elizabeth Preston (1984). Repitieron el estudio de la pena de muerte, es decir dos grupos, unos a favor y otros en contra, a los que se les suministra dos estudios sobre los efectos de la pena de muerte, un estudio a favor otro en contra de sus resultados como inhibidores de delitos, el resultado es que los estudios que se oponían a la preconcepción fue despreciado. Pero al repetirlo agregaron dos variantes, en la primera pidieron a los sujetos que fueran tan objetivos y equitativos como fuese posible; esta variante no sirvió de nada y las personas fueron tan tendenciosas como si no se les hubiera dicho nada. En la otra variante se les pidió que dijesen cual habría sido su posición respecto a la pena de muerte si el estudio que tomaron como válido hubiera dicho lo contrario. Bajo esta condición los estudiantes se mostraron menos reacios a mantener la imposibilidad de estudios en contra de sus ideas.