Un respetado profesor de mis primeros años de estudios de medicina incluía una sencilla pregunta de tres alternativas: “La medicina es: a) un arte; b) una ciencia y c) una ciencia y un arte”. La respuesta era “c”. Pasado los años, pienso que este profesor quería enseñarnos que la medicina se sustenta en una fuerte base científica, pero que la práctica médica consta de muchos otros aspectos como lenguaje, habilidades de comunicación y relaciones humanas, que no pueden ser enmarcados en el método científico.
Actualmente se ha propuesto que en el proceso diagnóstico intervienen dos aproximaciones: una rápida, intuitiva que requiere mínimos esfuerzos cognitivos que podríamos analogar al “ojo clínico” y la otra lenta, analítica y deliberada que requiere un mayor esfuerzo consciente1,2, siendo discutido cuál es más efectiva3–6. Para muchos médicos, hoy este “arte” de diagnosticar es sólo cuestión de “saber qué hacer en cada situación”. Sin embargo, los problemas que presentan los pacientes y los enfoques de diagnóstico diferencial son dependientes del contexto en que se presentan. Por ejemplo, ante la presencia de cefalea el diagnóstico diferencial y el enfoque anamnéstico desde la medicina ambulatoria y desde un servicio de urgencia son diferentes7.
Mucha de la medicina de hoy se basa en tener algoritmos de acción o normas de acción ante los problemas8,9. Pero ¿es todo algoritmizable? Kurt Gödel en 1931, demostró que ninguna teoría matemática formal es a la vez consistente (no existen contradicciones) y completa (responde todas las preguntas). Demostró que existen hipótesis indecidibles y por tanto no es posible crear un algoritmo capaz de dar cuenta de todas las interrogantes en un cuerpo de conocimiento. Posteriormente, en 1963 Paul Cohen, demostró que siembre que hay n axiomas es necesario uno más (n+1)10. Así, no todo puede ir en normas o manuales y aún hay espacio para pensar.
Otra manera de ver el proceso diagnóstico es pensar que todo se trata de método para llegar a un diagnóstico adecuado. Pero ¿es este método científico?
Método científico
Gracias a la contribución de numerosos autores se fue consolidando el método hipotético-deductivo cuyos pasos fundamentales son la observación, creación de hipótesis, deducción de consecuencias verificables, la verificación y comparación con la experiencia. Descartes (1596-1650) definió “las reglas del método para dirigir bien la razón y buscar la verdad en las ciencias” y Francis Bacon (1561-1626) pensaba que la observación repetida de fenómenos comparables permitía extraer por inducción leyes generales que los gobiernan. Sin embargo, Karl Popper (1902-1994) rechazó la posibilidad de extraer leyes generales por inducción aclarando que estas constituyen en realidad nuevas hipótesis que permiten elaborar predicciones11,12. Para Popper lo central es que las teorías puedan ser refutadas (“falsabilidad”) y en este sentido no habría teorías verdaderas sino no-refutadas. El método de Popper es conocido como hipotético-deductivo-refutacionista (HDR). En esta dualidad de opiniones de Bacon y Popper parece establecerse una controversia entre el pensamiento inductivo que propone la obtención de leyes generales desde la repetitividad, desde lo particular a lo general (empírico, observacional); y el pensamiento deductivo que va desde lo general a lo particular (si p, entonces q). Sin embargo, de las cuatro fases del método HDR: 1) planteamiento del problema; 2) creación de hipótesis; 3) deducción de consecuencias verificables de la hipótesis, y 4) contraste de hipótesis (refutación), la deducción sólo participa en los pasos 2 y 3. Mientras que la inducción opera en los pasos 1 y 4. Así, el método científico combina inducción y deducción. Hoy algunos autores rechazan la refutación como el único sello de lo científico13.
Estadística y la definición de probabilidad
El razonamiento inductivo conduce a evaluaciones de determinadas proposiciones, y esto se trata en la estadística que se puede definir como “la ciencia, pura y aplicada, que crea, desarrolla y aplica técnicas para la descripción de datos y la evaluación de la incertidumbre de inferencias inductivas” (modificada de ref. 14). Es decir el fin de la estadística es medir o cuantificar la incerteza de las inferencias inductivas mediante el concepto de probabilidad.
La definición clásica de Laplace propone que si todos los sucesos elementales del espacio muestral son equiprobables (mutua simetría), la probabilidad del suceso A es el cociente entre el número de resultados favorables a A y el número de resultados posibles del experimento:
Debemos notar dos hechos: 1) en esta definición no se necesita haber realizado el experimento, es decir es una definición a priori. No sería necesario tirar un dado para saber que la probabilidad de sacar un 5 es 1/6; y 2) La definición es circular, es decir para definir probabilidad se necesita que los sucesos elementales del espacio muestral sean equiprobables (mutua simetría). O sea, se define probabilidad en función de la equiprobabilidad del espacio muestral. Esto constituye la paradoja de la teoría de probabilidades.
Maurice Frechet en cambio planteó que es posible estimar la probabilidad del suceso A como la frecuente relativa de ocurrencia de A(nA) en n intentos (n): Esta es una definición a posteriori, es decir, exige que el experimento se haya realizado repetidas veces, antes de estimar la probabilidad de un suceso, y crea la noción frecuentista de probabilidad. Una crítica a la definición de Frechet, es que no responde a la pregunta ¿cuantas veces hay que repetir el experimento? Esto lo que quiso corregir Richard Von Mises, definiendo la probabilidad como un límite:
Sin embargo, no es posible repetir un experimento infinitas veces.
Andrei Kolmogorov, consciente de la paradoja de la definición clásica de probabilidad miró la probabilidad desde la teoría de la medida y propuso una definición axiomática como una función que le asigna a un evento, un número P(A) entre 0 y 1 eludiendo el problema de la mutua simetría. Su definición es a posteriori pues para determinar la medida de la probabilidad se necesita medir el evento A y medir el espacio muestral15,16.
Vemos en estas definiciones una dualidad que se refleja en la siguiente pregunta: ¿Es la probabilidad un atributo del evento, o es un atributo del conocimiento? Las definiciones a posteriori exigen que el experimento se haya realizado, siendo entonces la probabilidad un atributo del evento. Pero si el experimento ya se realizó y conocemos el espacio muestral y su medida, ¿para que necesitamos el concepto de probabilidad? La definición clásica en cambio no requiere que el experimento se haya realizado, pero para su estimación se requiere el conocimiento de los sucesos elementales que constituyen el espacio muestral. Esta dualidad se hace explícita en el siguiente ejemplo. Hay dos sujetos; el sujeto 1 tira una moneda al aire, ve el resultado sin que el otro lo vea y le pregunta al sujeto 2: ¿cuál es la probabilidad que sea sello? El sujeto 2 dice inmediatamente 1/2. Pero el evento ya ocurrió y entonces el sujeto 1 dice: ¡no! La probabilidad es 1, salió sello. El sujeto 1 conoce el evento y su frecuencia relativa es 1 (1 en 1 intento) mientras que el segundo mide su conocimiento del posible resultado (1/2).
Estrategia de la estadística frecuentista
La ciencia se basa en datos y el rechazo o aceptación de la hipótesis requiere la medición de la incerteza de las inferencias inductivas (p-valor). La estrategia estadística consiste en 1) Planteamiento de la Hipótesis; 2) Dicotomía de la hipótesis: H0 vs H1, donde H0 es la hipótesis de nulidad y H1 es la hipótesis alternativa (de investigación); 3) Elección del nivel de significación (α). En general en ciencias se consideran como adecuados niveles menores que α = 0,1; 0,05; 0,01. El más aceptado es α = 0,05, aunque para estudios de bajo poder se han propuesto niveles de hasta 0,00117; 4) Elección de la dócima apropiada (test), basados en ciertos supuestos; y 5) En base al resultado de la dócima, tomar una decisión estadística. De esta manera, la estrategia de la estadística frecuentista va dirigida al rechazo de la hipótesis de nulidad H0, lo que permite, dado la dicotomía de la hipótesis, aceptar por defecto la hipótesis de investigación contenida en H1.
Para la toma de decisiones la estrategia es medir la probabilidad de rechazar H0 dado que esta es verdadera, es decir, se estima a partir de los datos P(RechazoH0/H0=V) = P(Error de tipo I), lo que conocemos como el p-valor. Si este es menor que el máximo nivel que estamos dispuesto a tolerar (ie p < α), entonces rechazamos H0 y en consecuencia aceptamos H1. Observamos dos hechos realmente sorprendentes: 1) lo que medimos es en esencia la probabilidad de tener los datos observados (Xi) bajo el supuesto que H0 es verdadera P(Xi/H0) y no P(H0/Xi); si esta probabilidad es baja entonces es falsa; y 2) nunca probamos H1 ni medimos su probabilidad, es decir la aceptamos por defecto.
Si aceptamos H0 podemos estar cometiendo otro error (de tipo II), que es medible P(Aceptar H0/H0=F) = P(Aceptar H0/H1=V), pero habitualmente no lo medimos18.
La estrategia estadística fue construida por un pequeño grupo de estadísticos, la mayoría ingleses, Francis Galton, Karl Pearson, William Gosset (autodenominado Student), Ronald Fisher, Jerzy Neyman y Egon Pearson. En la estrategia de Fisher, sólo existe un error: rechazar una hipótesis de nulidad cuando es verdadera. La segunda forma de error fue introducida por Neyman y E. Pearson, llamando al error de Fisher error de tipo I y a este nuevo error, error de tipo II. Según Fisher, el nivel de significación equivale a la magnitud máxima del riesgo que está dispuesto a correr el investigador, de cometer el error de rechazar una hipótesis de nulidad cuando es verdadera. Sin embargo en la perspectiva de Neyman y Pearson, para establecer el nivel de significación estadística habría que estudiar cada tipo de error, y a partir de ahí se decidiría cuál de ellos es preferible minimizar. A partir de este último tipo de error, introdujeron el concepto de “poder de una prueba estadística”, el cual se refiere a su capacidad para evitar el error tipo II, y está definido por 1-β (medida del error de tipo II), y a partir de éste se ha desarrollado el concepto de “tamaño del efecto” que algunos han propuesto como sustituto de los valores p en los informes de investigación científica19–22. Aquí es útil aclarar que el p-valor no mide el tamaño del efecto ni estima la verosimilitud de H1, lo que hace que la frase “fue estadísticamente significativo” induzca a errores de interpretación, por lo que la Sociedad americana de Estadística (ASA) ha sugerido evitarla23.
Vemos que gran parte del conocimiento científico se basa en un método que tiene varias grietas conceptuales como la paradoja de las probabilidades y una estrategia al menos extraña, pero que sin embargo, aceptamos como una especie de híbrido de los conceptos de Pearson, Fisher y Neyman.
¿No habrá otro proceso inferencial que pueda solucionar estos problemas?
Inferencia Bayesiana
En 1763 Thomas Bayes enunció su famoso teorema: “Dada una partición del espacio muestral A, (ie: diagnósticos) y un evento B (ie: una manifestación: un hecho semiológico, un examen, etc), entonces la probabilidad condicional (o a posteriori) de Ai, dado el evento B (ie: la probabilidad de un diagnóstico dado B) es:
Nos indica que para estimar (o actualizar) la probabilidad de un evento es necesario estimar la probabilidad a priori de (P(Aj)) y la probabilidad de que ocurra el evento B dado cada uno de los posibles Aj24,25.
Al extender este teorema a variables aleatorias continuas y a la estimación de parámetros (θ) a partir de los datos (Xi) podemos establecer que la probabilidad a posteriori dado el conjunto de datos (ϖ(θ|Χi)) es proporcional a la verosimilitud de los datos (P(Xi|θ)= l(θ)) (por la probabilidad a priori ϖ(θ)).
Este teorema permite medir directamente la verosimilitud de una hipótesis de investigación. Analicemos el siguiente desarrollo. Sólo son posibles H0 y H1 y queremos medir directamente la probabilidad que H1 sea verdadera habiendo obtenido un conjunto de datos Xi. Aplicando directamente el teorema de Bayes:
Y
Dividiendo ambas obtenemos:
Esta razón es el factor de Bayes de H1 y mide cuanto más probable es H1 que H0, dado los datos, es decir la Odds a posteriori de H1 (OpH1)26,27. Su inverso es la Odds a posteriori de H0.
Dos observaciones: 1) conociendo la Odds a posteriori de H1 podemos calcular su probabilidad
La inferencia Bayesiana en general se realiza por métodos iterativos que permiten actualizar la probabilidad de una hipótesis dado los datos (Figura 1). Tiene la particularidad de que necesita una estimación a priori de las probabilidades de las hipótesis que puede ser subjetiva. Al igual que en la estadística frecuentista, a mayor cantidad de datos menor es la incerteza de las inferencias. Usa el concepto de probabilidad a priori como atributo del conocimiento y mide directamente la verosimilitud de la hipótesis de investigación29 (Tabla 1).
Concepto | Inferencia frecuentista | Inferencia Bayesiana |
---|---|---|
Probabilidad | Frecuencia en gran cantidad de ensayos | Grado de certeza o de conocimiento en relación a un evento |
Datos | Aleatorios, muestra representativa | Fijos, son los que hay |
Parámetros | Fijos | Aleatorios |
Intervalo de confianza del k% | Un intervalo que incluirá el verdadero valor del parámetro en un k% de todas las posibles muestras | Una intervalo que tiene una certeza o probabilidad del k% de incluir el parámetro. Se llama intervalo de credibilidad |
Conclusión | P(X/H)(ie.P(Rechazo H0/H0=V)) | P(Hi/X) |
Aproximación diagnóstica
A estas alturas, es bueno preguntarse ¿Qué tiene que ver esto con el razonamiento clínico? Como se ha vislumbrado en los párrafos anteriores y como ha hecho evidente el desarrollo de la medicina basada en la evidencia28 en la práctica clínica se cumple con todo el proceso del método científico. Se conoce un problema, se plantea una hipótesis diagnóstica y se docima acumulando un conjunto de manifestaciones (datos; Xi) constituidos por datos de la anamnesis, signos y síntomas en el examen físico, exámenes de laboratorio, imágenes etc, para finalmente inferir una hipótesis diagnóstica. Este razonamiento diagnóstico corresponde exactamente al proceso de inferencia Bayesiana. Al igual que en este, se tienen probabilidades a priori que se actualizan en función de un conjunto de datos. En términos simples, si queremos conocer la probabilidad de un determinado diagnóstico (o su Odds) es necesario primero conocer la epidemiología (perfil de riesgo) que representa la realidad local en términos de frecuencias de presentación de los posibles diagnósticos. Ambos en conjunto permiten establecer la probabilidad de atribución a priori, antes de conocer la clínica y los exámenes, de los posibles diagnósticos. En segundo lugar es necesario tener un conocimiento acabado de los resultados esperados en cada diagnóstico (conocimiento médico), estableciendo la función de verosimilitud, lo que permite actualizar la distribución de probabilidades de los posibles diagnósticos. El teorema de Bayes permite identificar los pilares diagnósticos relevantes: Probabilidad a priori basada en la epidemiología y la función de verosimilitud, basada en el conocimiento médico (experiencia y ciencia) (Figura 2).
Veamos un ejemplo artificial que nos permita ilustrar cómo opera el proceso. Un paciente acude a nuestra consulta y supongamos que tenemos la dicotomía representada en dos hipótesis: H1 = patología maligna, H0 = patología benigna. La probabilidad a priori P(H1) corresponde a la prevalencia de neoplasia para un sujeto chileno que la estimaremos aproximadamente 194/100.00030; P(H1) = 0,00194, por lo que O0 = 0,00194/(1-0,00194) = 0,00194377. Sin embargo, este paciente acudió a la consulta por algún motivo los que aumenta su Odds, supongamos que el LR de acudir a la consulta es 10, entonces ahora Op H1 = 10xO0= 0,0194377. Pero el paciente tiene mas de 70 años (LR = 4,16), entonces ahora Op H1 = 0,0194×4,16 = 0,0808, ha tenido hemoptisis (LR = 5,08) ahora OpH1 = 0,41, hay historia familiar de malignidad (LR = 4,95) ahora OpH= 2,03, tiene un nódulo en la radiografía en lóbulo superior (LR = 1,22), ahora OpH1= 2,48, el nódulo es espiculado (LR= 5,54), ahora OpH1 = 13,74, mide más de 3 cm (LR = 5,23), ahora OpH1 = 71,87. Es decir, el paciente inicialmente tenía una Odds baja de neoplasia pero con los exámenes (datos: X) ahora tiene una Odds muy alta. Podemos calcular su probabilidad P(H) = 71,87/(71,87+1) = 0,986 (valores de LR en 31). Entonces, ahora podemos afirmar que el paciente tiene un cáncer con una probabilidad de error de 0,013.
Para algunos lo esencial del enfoque Bayesiano está en el uso de probabilidad como credibilidad subjetiva a priori. Sin embargo, es necesario aclarar que la subjetividad solo yace en la distribución de probabilidades a priori. Así, podemos usar priori's objetivas versus subjetivas e informativas versus no-informativas. Por ejemplo una priori no informativa es una distribución uniforme (igual probabilidad en cada diagnóstico) pero puede ser objetiva (basada en datos previos) o bien subjetiva26. Habitualmente en medicina usamos la distribución a priori relativamente objetiva e informativa aportada por la realidad epidemiológica local.
La razón de verosimilitudes es el factor potenciador de la Odds a priori. Si el factor de Bayes u odds a posteriori es similar a la Odds a priori, entonces la contribución al diagnóstico que hicieron los datos (Xi) en la hipótesis final es escasa, mientras que si existen grandes diferencias, es el peso de los datos el que permite una adecuada proposición final.
Lo expuesto no significa que el método pueda ser usado directamente, ya que es virtualmente imposible introducir en este algoritmo todas las posibilidades diagnósticas ni calcular todas las verosimilitudes (volvemos a Gödel), las cuales pueden variar en los subtipos de las entidades diagnósticas haciendo que las interfaces en cada paso sean situación-dependiente32. Afortunadamente este proceso es mental y no pasa por cálculos numéricos. Así, el proceso diagnóstico no sigue estrictamente el álgebra definida en la inferencia Bayesiana sino que coincide en su estructura general, estableciendo una inferencia inductiva cuasi-Bayesiana que conduce a proposición de una hipótesis con una cierta incerteza, con una metodología científica.
Volviendo a la anécdota inicial, cuando nuestro profesor hacía la pregunta: “La medicina es: a) un arte; b) una ciencia y c) una ciencia y un arte”. Ahora la respuesta es b).
En realidad no. No arruinemos la magia… también es un arte.