jueves, 25 de abril de 2019

Riesgo absoluto frente a riesgo relativo. O sobre la mala comunicación de los resultados de la investigación

Imagina que te digo que consumir cerveza incrementa el riesgo de padecer obesidad abdominal en un 75%. El estudio es sólido y fiable. Y un 75% parece un aumento enorme. Así que es posible que decidas no volver a tomar una cerveza en tu vida. Pero, si te paras a pensar, ¿qué supone realmente un 75% de incremento del riesgo? ¿Quiere decir que un 10% de los que no consumen cerveza poseen obesidad abdominal frente a un 85% de los que consumen? Seguramente no. Posiblemente, lo que el estudio ha hallado es algo así como que un 10% de los que no consumen cerveza poseen obesidad abdominal frente a un 17.5% de los que consumen cerveza. Es decir, una diferencia en el riesgo absoluto de 7 individuos de cada 100 o de 7 puntos porcentuales, que se convierte en un incremento del 75% en el riesgo relativo. Algo falla.  


La cuestión es que la utilización equívoca del riesgo relativo en vez del riesgo absoluto en la difusión de los resultados en la investigación biomédica, epidemiológica, psicológica y sociológica es una tendencia preocupante. Es equívoca porque la utilización del riesgo relativo magnifica los efectos, en ocasiones no relevantes, hallados en los estudios. Es preocupante porque el riesgo relativo es utilizado cada vez con más frecuencia por los investigadores y los medios de comunicación. Y, sobre todo, es preocupante porque la inadecuada transmisión de los resultados de los estudios en estas disciplinas puede conducir a la población y los responsables políticos a tomar decisiones equivocadas.


Hace tiempo que ando preocupado por esta cuestión. Pero, claro está, no soy el único. El investigador alemán Gerd Gigerenzer, director del Departamento de Conducta Adaptativa y Cognición y director del Centro Harding para la Evaluación de Riesgos​ en el Instituto de Max Planck en Berlín, lleva años alertando de la utilización inadecuada de resultados estadísticos en la comunicación del riesgo en salud. Una introducción a su trabajo sobre la toma de decisiones en situaciones de incertidumbre (en el ámbito de la salud y las finanzas) y la comunicación del riesgo puede leerse en Risk Savvy: How To Make Good Decisions.



En Risk Savvy podemos leer un ejemplo real muy interesante sobre la confusión derivada de utilizar el riesgo relativo. Vayamos con el ejemplo de Gigerenzer:


Un comité del gobierno del Reino Unido alertó a la población con el siguiente mensaje, basado en un estudio con miles de mujeres: las píldoras anticonceptivas de tercera generación incrementan el riesgo de trombosis un 100% frente a las píldoras de segunda generación. La información fue transmitida a los médicos y a los medios de comunicación británicos. Se creó una alarma pública considerable que se tradujo en una reducción del uso de la píldora anticonceptiva entre la población y un incremento de los abortos. Todo por una mala comunicación de los resultados. Porque veamos los detalles del estudio.


El estudio, por lo demás de gran solidez y fiabilidad, mostraba que de 7000 mujeres que tomaron la píldora de segunda generación, cerca de una sufrió una trombosis. De cada 7000 mujeres que tomaron la píldora de tercera generación, aproximadamente dos sufrieron una trombosis. El riesgo absoluto creció de 1 de cada 7000 a 2 de cada 7000; es decir, aumentó en un 1 de 7000. Pero el riesgo relativo creció un 100%. Cualquiera sin formación estadística puede pensar que es un disparate reportar el riesgo relativo. Pero es lo que hicieron los investigadores y los periodistas. Según Gigerenzer, esta utilización espuria del riesgo relativo resultó en 13.000 abortos adicionales durante el año posterior en Inglaterra y Gales.


Otra confusión peligrosa de los hallazgos estadísticos se produce cuando comparamos proporciones, algo muy habitual en la investigación en psicología social y sociología. Imaginemos que en un estudio hallamos que la proporción de personas que defraudan a hacienda es del 4% entre los votantes del partido A y del 8% entre los votantes del partido B. La diferencia entre ambos grupos es de 4 puntos porcentuales, es decir, apenas relevante (hay pruebas adicionales estadísticas para medir la magnitud de esta diferencia). Lo entiende todo el mundo: 4 de cada 100 defraudadores en el partido A frente a 8 de cada 100 en el partido B. La diferencia podría ir de 0 puntos (no habría diferencia entre los grupos) a 100 puntos porcentuales (la diferencia entre los grupos es total). Pero investigadores oportunistas, activistas y periodistas interesados en ultrajar a los votantes del partido B, dirán algo así como que “el doble de votantes del partido B defrauda a hacienda en comparación con el grupo A” (porque 8 es el doble de 4) o que la proporción de defraudadores a hacienda es un 100% mayor entre los votantes del partido B (porque el incremento relativo entre 4 y 8 es el 100%).


En un estudio reciente muy divulgado por la Fundación La Caixa se produce esta confusión malintencionada entre diferencia absoluta y diferencia relativa. Las investigadoras mandaron cientos de CV ficticios de hombres y mujeres a diversas ofertas laborales para examinar si había un sesgo sexista en el reclutamiento de hombres y mujeres. Después de controlar el posible efecto de variables como el nivel educativo o el número de hijos, los resultados mostraron que un 7.7% de las mujeres fue invitada a realizar la entrevista frente a 10.9% de los hombres. Es decir, una diferencia de apenas 3.2 puntos porcentuales entre hombres y mujeres en la probabilidad de recibir una oferta. Una diferencia no relevante (aunque estadísticamente significativa, dada la magnitud de la muestra). Pero las investigadoras, la fundación y los medios de comunicación optaron por un titular engañoso pero más interesante: “Las mujeres tienen un 30% menos de probabilidades de ser citadas a una entrevista laboral que los hombres”. El titular apareció en todos los medios y cadenas televisivas españolas. Las mujeres enfurecieron y las feministas clamaron por la caída del heteropatriarcado capitalista. Todo por unos resultados tramposamente comunicados: 8 de cada 100 mujeres fueron llamadas para la entrevista, frente a casi 11 de cada 100 hombres. Es decir, casi nadie fue llamado a la entrevista con independencia de su sexo. Esa es la realidad. Una diferencia de 3 de cada 100, de 3 puntos porcentuales en una escala de 0 a 100. Una diferencia no relevante. Es lo que debió decir el estudio, por lo demás muy sólido. El resultado no era del gusto de las investigadoras y los medios de comunicación. Pero que la realidad no estropee un buen titular.  


La cuestión es que hay una solución muy sencilla para no confundir al público. Basta con informar del riesgo absoluto en vez del riesgo relativo cuando comparamos el riesgo en dos o más condiciones o bien con informar de las proporciones, porcentajes o prevalencias y no volverlas a convertir en porcentajes. Es una solución muy sencilla. Miremos cómo lo hace una investigadora responsable refiriendo a la investigación sobre cuidados paternos: “Para ponerle algunos números, el estudio encontró que de los bebés de un grupo de madres alentadas a amamantar, el 9 por ciento tuvo al menos un episodio de diarrea, en comparación con el 13 por ciento de los hijos de madres que no fueron alentadas a amamantar. La tasa de erupciones y eczema fue del 3 por ciento frente al 6 por ciento”. Un investigador manipulador habría argumentado que el aumento en los eczemas fue del 100% (diferencia entre el 3 y el 6%). Y eso está mal.


Gigerenzer lleva años alertando de estos y otros despropósitos en la comunicación del riesgo (algunos tan relevantes como la confusión en torno a la supervivencia por pruebas médicas de detección temprana para diversos cánceres; ver la imagen más abajo).


Fact box con los datos bien explicados sobre el efecto, inapreciable en la supervivencia, de las mamografías.


Mientras escribía esto leo: “Un estudio siguió a 12,338 hombres durante nueve años, y encontró que los hombres que no tomaban vacaciones anuales tenían un riesgo un 32% mayor de muerte por ataque cardíaco y un riesgo un 21% mayor de muerte por todas las causas”. El estudio es sólido. Las variables importantes están controladas. Y tomar vacaciones seguramente es importante para la salud y debería ser promovido por las empresas y los responsables políticos. Pero, de nuevo, ¿cuál es la tasa base?, ¿qué supone un incremento del 32%?, ¿cuántos murieron en el grupo que tomó vacaciones frente al grupo que no tomó vacaciones?


Como afirma Gigerenzer, no se trata de que la gente, incluidos los expertos, es incapaz de entender los números. Se trata de mejorar la comunicación de los resultados, de hacerlos más comprensibles. Y también, de no intentar manipular al público. La investigación biomédica y social es importante. No deberíamos pervertirla por una mala comunicación de los resultados.

1 comentario: