/  Rosario - Santa Fe - Argentina

 
 
     

En este nuevo suplemento mensual, Clínica-UNR.org engloba cuatros secciones dedicadas de un modo diferente a la revisión y/o el análisis de literatura científica destacada. A las tradicionales secciones "Revista de Revista" y "Artículos on line recomendados", se agregan "Puesta al Día" y "Análisis racional - De la literatura a la práctica cotidiana". El suplemento tiene actualización mensual.

 


La sección "Análisis racional - De la literatura a la práctica cotidiana" de este suplemento está destinada al análisis crítico de revisiones específicas de JAMA, con el fin de optimizar nuestra práctica diaria y llevar a cabo un juicioso empleo de los métodos complementarios de que disponemos. Se encuentra coordinada por el Dr. Sebastián García Zamora.
 

 


 

 

 
 
     Nº 1  -  Mayo 2009

Análisis racional - De la literatura a la práctica cotidiana


Coordinación: Dr. Sebastian García Zamora

   
 
Descargar este número en formato PDF (421 Kb)

En los artículos sucesivos que irán apareciendo en la presente sub-sección se emplearán algunos conceptos que pueden no resultar del todo familiares para el médico asistencial; sin embargo, familiarizarnos con ellos permitirá comprender más en profundidad las ideas expresadas en los trabajos, al tiempo que redundará en beneficios indirectos para la práctica clínica diaria.

 

La Sensibilidad y la Especificidad son conceptos que se utilizan para valorar la calidad de una prueba. Sensibilidad (S) es la capacidad que tiene un método de reconocer a los enfermos como tales, con respecto al “gold standard”; de modo similar, la Especificidad (E) es la capacidad que tiene un método de reconocer a los sujetos sanos como tales, también, respecto del “gold standard”. Así, si disponemos de un método “x” (asumiendo que se trata de una prueba dicotómica, es decir, aquella que sólo puede tener dos resultados, positivo o negativo) con una S de 87% y una E de 93% quiere decir que, si tomásemos 100 sujetos enfermos y le aplicáramos esta prueba, ella nos daría positiva en 87; si posteriormente tomásemos 100 sujetos sanos y le realizáramos la misma prueba, esta nos daría negativa en 93 de ellos. Podríamos preguntarnos ahora, ¿qué ocurre con el resto? Pues bien, 13 de los 100 enfermos tendrían un resultado negativo en la prueba, a pesar de estar realmente enfermos (recordemos que la S de la prueba del ejemplo era del 87%) y 7 de los sujetos sanos tendrían un resultado positivo de la prueba, pese a estar completamente sanos. Entonces, es lógico suponer que desearíamos contar con pruebas que tengan una S y una E del 100%, cosa que lamentablemente NUNCA ocurre. Ahora, de lo ya expuesto se desprende también otro interesante concepto: no siempre los resultados obtenidos en las pruebas son los “verdaderos”. Aquí conviene que nos detengamos un poco.

        Si nos preguntaran qué resultados puede tener una prueba dicotómica, diríamos en seguida dos, positivo o negativo. Sin embargo, existe otra variable a considerar: el resultado de la prueba puede ser verdadero (es decir, coincidir con la real condición del sujeto) o ser falso. Entonces, en realidad, los resultados de una prueba dicotómica podrían ser cuatro, a saber: ser un Verdadero Positivo (VP), ser un Verdadero Negativo (VN), ser un Falso Negativo (FN) o ser un Falso Positivo (FP). Para conocer qué capacidad tiene una determinada prueba (entendiendo como tal no sólo un examen complementario, sino también la presencia de un síntoma, un signo, una maniobra semiológica determinada, etc.) de arrojar cualquiera de los resultados que hemos mencionado antes debemos conocer, como hemos dicho, la S y E de la misma.

        Pero ocurre que aún conociendo la S y E de un método, frente a una persona que tenga el resultado de una prueba, si bien podremos saber con solo observarlo si el resultado es “positivo” o “negativo”, no podremos dar respuesta al trascendental cuestionamiento de si ese resultado es real (léase “verdadero”), o se trata de un resultado “falso”. Para responder a esto contamos con otros conceptos, los Valores Predictivos. Ellos son dos: Valor Predictivo Positivo (VPP), que es la probabilidad de padecer la enfermedad si se obtiene un resultado positivo en la prueba y Valor Predictivo Negativo (VPN), que es la probabilidad de que una persona con un resultado negativo en la prueba esté realmente sano. Es interesante conocer cómo se calculan estos indicadores, no tanto por la utilidad práctica de recordar las fórmulas que se utilizan, sino para comprender las implicancias de cada uno. Para esto se utiliza lo que se denomina “tabla de contingencia”:

 

 

 

Enfermos

Sanos

 

Prueba +

a

Verdaderos Positivos

b

Falsos Positivos

a+b

Total de Positivos

Prueba -

c

Falsos Negativos

d

Verdaderos Negativos

c+d

Total de Negativos

 

a+c

Total enfermos

b+d

Total Sanos

a+b+c+d

Total de casos

 

 

 

        A partir de estas fórmulas, que en un primer momento pueden parecer “complicadas”, podemos comprender que cuanto mayor sea la S de una prueba (mayor capacidad para detectar a los realmente enfermos, o verdaderos positivos) menor será la tasa de sujetos con una enfermedad que queden sin detectar, o lo que es lo mismo que “se nos escapen” (los “falsos negativos”, personas con la enfermedad pero en los que la prueba dio un resultado negativo). Y de forma muy parecida, cuanto mayor sea la E (mayor capacidad para encontrar a sujetos sin la enfermedad como tales, o verdaderos negativos) menos sujetos sanos serán rotulados erróneamente como enfermos (es decir, tendremos menos “falsos positivos”). Por todo esto se comprenderá que a la S también se la denomine “tasa de verdaderos positivos”, ya que es un cociente entre los positivos y los enfermos (ver fórmula arriba) y a la E “tasa de verdaderos negativos”, puesto que relaciona los negativos con el total de los sanos (ver supra).

        Tanto la S como la E son característica inherentes de una prueba (es decir, son “capacidades” propias de ellas, y no son modificables por situaciones externas) y nos permiten valorar su utilidad; sin embargo tienen como “desventaja” su incapacidad de aportarnos datos concretos frente a un paciente en particular. El VPP y el VPN nos permiten responder qué probabilidad tiene un paciente de estar enfermo cuando el resultado de una prueba ha sido positivo, y que probabilidad tiene el mismo sujeto de estar sano, en caso de que el resultado haya sido negativo. Sin embargo tampoco son perfectos, y poseen como “desventaja” estar íntimamente relacionados con la prevalencia de la patología, cosa que no ocurre con S y E. Esto quiere decir que cuando la prevalencia de una enfermedad sea muy baja, el VPP será bajo y en cambio el VPN será alto; y viceversa, cuando la prevalencia de la enfermedad sea realmente elevada, el VPP será muy alto, pero el VPN será bajo; esto es así, y varía muy poco con los distintos valores que S y E pueden adoptar. La demostración matemática de esto puede hacerse por medio de las tablas de contingencia, pero escapa el propósito del presente. Sin embargo disponemos de una forma “visual” de recordar esto:

Prevalencia %

VPP %

VPN %

99
95
90
80
50
20
10
5
1

99,9
99,4
98,8
97,3
90
69,2
50
32,1
 8,3

8,3
32,1
50
69,2
90
97,3
98,8
99,4
99,9

 

        Así, una prueba “x” con una S y E dada, si la realizamos en un lugar donde la prevalencia de la enfermedad que detecta es de 0,5% tendrá un determinado VPP y VPN, y si posteriormente la realizamos en otro sitio con una prevalencia de 23% de la misma patología, los VPP y VPN serán totalmente distintos, aunque la S y la E de la prueba se mantengan constantes.

        Por todo esto, los VPP y VPN son muy útiles frente a un paciente concreto, pero no nos aportan datos respecto del valor de una prueba, y menos aún nos permiten comparar diferentes pruebas entre sí. Para “solucionar” este inconveniente se han creado otros indicadores, que son los Likelihood Ratio (LR) positivos y negativos (denominados en la literatura española razones de verosimilitud o cocientes de probabilidad -CP-). Ellos surgen de relacionar directamente la S y la E del método, no siendo dependientes, por tanto, de la prevalencia de la patología. Su cálculo puede realizarse del siguiente modo:

 

 

 

 

 

        Los LR se definen como “multiplicadores de chance”: sirven para comparar pruebas diagnósticas, no dependen de la prevalencia de la enfermedad que se busca, y pueden ser aplicados sobre pacientes en concreto. Sin embargo, ellos también poseen una “desventaja” y es la de no utilizar a la probabilidad como unidad, sino a la chance.

        Chance puede definirse como un cociente donde aquello que se incluye en el numerador, queda automáticamente excluido del denominador; al igual que la probabilidad (unidad mucho más familiar para nosotros) es una unidad que indica “qué posibilidad existe de que un evento suceda”. Sin embargo chance y probabilidad son unidades distintas, que no pueden relacionarse entre sí de modo directo. Intentar hacerlo sería como intentar sumar “manzanas y peras”. Entonces, si tengo una probabilidad del 15% de padecer una enfermedad, y tengo una prueba que si me da positiva me multiplica en 4 las chances de padecer la enfermedad, luego de realizar el test, si este fue positivo, mi probabilidad aumentó, pero NO es igual a 60%, como así tampoco si tengo 2 manzanas y 4 peras, no tengo 6 manza-peras. Debemos aclarar que probabilidad y chance pueden relacionarse, pero para ello debemos apelar a fórmulas, o utilizar otros métodos, como sería el Nomograma de Fagan. Ciertamente ninguna de las dos alternativas es una opción práctica para nuestras actividades diarias. Entonces, si uno maneja probabilidades ¿sirven los LR, o multiplicadores de chance? Sí, sirven, pero hay que saber comprenderlos y como utilizarlos, preocupándonos menos por el cálculo de valores en sí.

        Chance, como dijimos, es un cociente que indica posibilidad. Pensemos en un dado: si lo arrojásemos con la intención de obtener un número determinado, por ejemplo 6, ¿cuál es la posibilidad de que ocurra lo que deseamos? Naturalmente diríamos que tenemos una probabilidad de 1/6, o lo que es lo mismo, 0,1667; ahora si quisiéramos expresarlos en términos de chance, esta sería de 0,20 (o 1/5). Quizá otro ejemplo ayude un poco más: tengo 10 habitaciones con una persona en cada una de ellas, y sé que 8 de esos sujetos son dislipémicos; yo desconozco a los sujetos, pero estoy al corriente de esta situación: ¿cuál es la posibilidad de que si yo ingreso a una habitación, encuentre allí a un paciente con dislipemia? Aquí nuevamente puedo calcular esta posibilidad en términos de probabilidad o de chance, como más lo desee. Mi probabilidad es del 0.8 u 80% ya que tengo 8 sujetos dislipémicos, sobre un total de 10 (8/10); la chance de lograr esto mismo es aquí de 4. ¿Por qué? Porque hay 8 pacientes dislipémicos y 2 que no lo son, es decir 8/2, lo que es lo mismo que 4. ¿Se logra comprender dónde radica la diferencia? En la probabilidad relaciono lo que busco respecto del total, por ejemplo, enfermos sobre total de individuos; en cambio cuando calculo chance relaciono (porque recordemos que es un cociente) lo que busco sobre lo que no busco, por ejemplo, enfermos sobre sanos. Aquí el denominador de la fracción NO abarca el total, sino “lo que queda” luego de excluir lo que estoy buscando.

        Este es sin dudas un concepto difícil de comprender, pero más que recordar exactamente como obtenerlo, conviene tener presente algunos puntos:

-      La probabilidad es siempre menor a la unidad (o si usamos la base 100%, siempre menor a esto), en cambio la chance puede ser tanto mayor como menor que la unidad.

-       Probabilidad y chance “hablan de lo mismo”, aunque suele resultarnos más simple pensar en probabilidad. A su vez, la chance tiende a “exagerar” la posibilidad que nos muestra.

-      Chance y probabilidad no son sinónimos, y no pueden operarse indicadores con estas unidades de modo directo.

     Ahora bien, ¿para qué nos sirve todo este embrollo de la chance? Para entender la definición de LR, que son multiplicadores de chance, y para recordar (al menos luego de tanta reiteración el concepto debe quedar arraigado) que el LR no puede usarse directamente sobre una probabilidad. Ahora, y después de todo esto, ¿cuando es útil un LR? De modo muy simple, cuanto más lejos de la unidad (1) se encuentre. ¿Por qué? Porque si hablamos de “multiplicadores”, cualquier cosa que multipliquemos por 1 obtendremos lo mismo… Entonces si yo quiero multiplicar (entiéndase aumentar) la posibilidad (chance) de que un paciente tenga o no una enfermedad luego de aplicar un test, buscaré que este genere el mayor cambio sobre la posibilidad inicial. Así, el cambio será mayor cuanto más grande o pequeño sea el número por el que lo estoy multiplicando. Quizá la forma más simple de comprender esto es con la siguiente tabla:

 

LR

Interpretación

>10

Aumento grande y concluyente de la probabilidad de enfermedad.

5-10

Incremento moderado de la probabilidad de la enfermedad.

2-5

Pequeño incremento de la probabilidad de la enfermedad.

1-2

Mínimo incremento de la probabilidad de la enfermedad.

1

No hay cambio en la probabilidad de la enfermedad.

0.5-1

Mínimo decremento en la probabilidad de la enfermedad.

0.2-0.5

Pequeño decremento en la probabilidad de la enfermedad.

0.1-0.2

Moderado decremento en la probabilidad de la enfermedad.

<0.1

Grande y concluyente decremento en la probabilidad de la enfermedad.

 

        ¿Con esto es suficiente para evaluar el valor de una prueba diagnóstica? Casi… Si bien todo esto es fundamental, el criterio y el buen juicio clínico son fundamentales a la hora de valorar un test. Quizá un ejemplo ayude a comprender mejor esta idea: un trabajo comparó el valor de la clínica y la detección no invasiva de H. pylori en pacientes que consultaron por dispepsia para predecir la presencia de úlcera péptica[1]. Tres criterios clínicos fueron predictivos de UP: haber padecido una ulcera péptica tuvo un LR+ de 4.6, el tabaquismo un LR+ de 2, dolor con el estómago vacío un LR+ de 2.8  y la detección de H. pylori un LR+ de 2.8. A primera vista podría parecer que, con excepción del antecedente de UP, que tendría un valor moderado, ninguno de los demás tiene un rol importante. Estrictamente hablando esto quizá podría ser así, pero si prestamos atención, conocer si el paciente fuma y preguntarle si tiene dolor con el estómago vacío son “tests” que no poseen costos, tampoco entrañan riesgos para la persona, están ampliamente disponibles (sólo hay que preguntar) y son fáciles de recordar: por todo esto, estos dos datos clínicos son útiles pese a que su LR+ no sea el “ideal” (siempre que recordemos las limitaciones que poseen). En cambio, la detección no invasiva de H. pylori es costosa y aporta poco beneficios (LR+ bajo) para este propósito, es decir, predecir la presencia de UP en pacientes con síntomas de dispepsia; entonces, aunque posee el mismo LR+ que tener dolor con el estómago vacío, uno de los “tests” es útil, mientras que el otro no.

        ¿Queda mucho más de esto? No, afortunadamente casi hemos terminado…

        El “gold standard” o “patrón de oro” mencionado al principio de este texto es el método más preciso del que se dispone para lograr el diagnóstico de una patología determinada y, por lo tanto, es el método que se emplea para comparar el valor de otras pruebas diagnósticas. El “gold standard” para una patología puede variar a lo largo del tiempo y no necesariamente es el método que se emplea rutinariamente para lograr el diagnóstico de certeza que se busca.

        La prevalencia es la proporción de sujetos de un grupo o una población que presentan un evento determinado en un momento dado. La probabilidad pretest es la prevalencia del evento o patología que se esté investigando antes de que se lleve a cabo un test cualquiera. Esto se relaciona con la epidemiología (sexo, edad, prevalencia general en la población del lugar) y con la presentación clínica; a su vez, cada vez que apliquemos un test y este nos arroje un resultado, la prevalencia del sujeto en cuestión habrá variado, llamándose prevalencia postest. Pero esta prevalencia postest se transforma en la nueva prevalencia pretest, si vamos a realizar una nueva prueba. ¿Podrías explicarlo de un modo más simple? Quizá un ejemplo ayude: si una mujer de 32 años consultara por dolor tipo angor, la prevalencia “a priori” de que se trate de un síndrome coronario agudo es baja. Pero si al interrogarla refiere ser diabética desde hace 20 años, no estando controlada, ser tabaquista de jerarquía y ser, además, hipertensa, no cumpliendo con la medicación que le fue indicada, la prevalencia en ella varió considerablemente respecto de su grupo según su sexo y edad. La prevalencia pretest era inicialmente baja, cuando sólo conocíamos unos pocos datos; luego de interrogarla exhaustivamente respecto de sus factores de riesgo cardiovascular (cada pregunta puede ser entendida como un test) la prevalencia que podemos estimar en ella sería la prevalencia postest; ahora bien, esta prevalencia postest puede haberse incrementado suficientemente como para que consideremos realizarle un ECG a la paciente. Su anterior prevalencia postest es ahora su pretest, y luego de obtener los resultados del ECG su prevalencia habrá vuelto a variar, y será su nueva prevalencia postest. Si aún así quisiéramos realizarle otra prueba, su prevalencia postest pasa a ser la nueva pretest, hasta que se obtenga una nueva postest. Y así sucesivamente… Pero, ¿y cuándo nos detenemos? Dejaremos de hacer pruebas cuando la probabilidad de que el paciente esté enfermo sea suficientemente elevada como para autorizarnos a actuar al respecto, o sea tan baja que podamos estar seguros que no padece la enfermedad. De modo gráfico:

 

 

 

        Cabe preguntarnos, con tantos cálculos y fórmulas en el texto ¿realmente debemos “sentarnos a hacer números” o debemos preocuparnos más bien por atender pacientes? La verdad es que todos estos conceptos son teóricos, pero nos permiten llevar a cabo un razonamiento más crítico y que redundará en beneficio de nuestros pacientes. Sin embargo esto no implican que debamos intentar “calcular” exactamente la probabilidad de un paciente de padecer una patología. Esto es algo que suele estimarse “a ojo” ya que en la práctica, no hay diferencias entre una probabilidad de 21, 27 o 32%.

        Para ir terminando, y luego de todo esto podemos preguntarnos, si deberíamos optar entre una prueba muy sensible pero menos específica, o una prueba muy específica pero menos sensible, ¿qué es lo más adecuado? Podemos decir que la selección de un test diagnóstico dependerá, en primer lugar, de su valor intrínseco (según los parámetros sobre los que hemos estado hablando), también de la prevalencia calculada de la enfermedad y en gran medida de cuál es nuestro objetivo diagnóstico. Si queremos realizar un screening, es decir, captar la mayor cantidad de sujetos con una determinada enfermedad utilizaremos pruebas muy sensibles, aún sabiendo que así incluiremos a algunos sanos en este grupo; ahora, si lo que buscamos es confirmar una enfermedad, queremos asegurarnos que ningún sujeto sano sea rotulado erróneamente como enfermo (y, por tanto, que sea tratado como tal). En este caso elegiremos las pruebas con mayor especificidad, aunque con esto “quede sin incluirse” algún paciente con la enfermedad.

        Resta aún aclarar un concepto fundamental, el de Intervalo de Confianza (IC). Cuando tratamos de establecer algo, (cualquier cosa, desde la sensibilidad de un método hasta la seguridad o utilidad de un fármaco) no sólo buscamos “conseguir” un valor, tratamos también de determinar que aquello que hemos afirmado se asemeja en la mayor medida posible a la realidad, y no es mero fruto del azar. Ciertamente pretender que lo que decimos sea “la realidad” o “la verdad” es algo ambicioso, pero no cabe duda de que debemos intentar que se encuentre lo más cercana posible a ella. Entonces, los IC pueden ser definidos como la expresión estadística del grado de confiabilidad del dato que estamos informando o, de un modo más coloquial, “qué tanto se aproxima el resultado que hemos hallado a la realidad”. Quizá un ejemplo permita comprender aún mejor esto: supongamos que un trabajo informa que una prueba “x” tiene un LR+ 9 (IC 95 0,9 - 15,2). No cabe duda que el LR informado es casi excelente pero, ¿qué nos quiere decir su IC? En primer lugar, el número que le sigue indica la probabilidad con la que se establecen los límites del intervalo, habitualmente se emplea 95% o 99% (lo que implica un margen de error del 5% o 1%, respectivamente). Segundo, nos dice que hay una probabilidad del 95% (o la que hallamos elegido) de que el LR real de la prueba sea un valor comprendido en el intervalo limitado por el rango 0,9 a 15,2. De un modo más simple, en el mejor de los casos la prueba puede ser tan buena como tener un LR de 15,2, pero en el peor de los casos sería tan inútil como si tuviera un LR+ de 0,9; y esto lo podemos afirmar con una confianza del 95% o, lo que es lo mismo, si repitiéramos 100 veces el trabajo para el cálculo del LR, en 95 de ellos se espera que el valor hallado se encuentre  dentro del intervalo de confianza dado. Un IC será tanto más útil cuanto más estrecho sea, ya que esto implica mayor precisión del dato brindado; por otra parte, si un IC “cruza” la unidad (como en nuestro ejemplo) o “cambia de signo” (es decir, es positivo uno de sus extremos y negativo el otro) el dato brindado carece absolutamente de valor. ¿Por qué? Porque al analizar algo, lo que buscamos es saber “en qué grupo se encuentra”; en nuestro ejemplo queríamos saber si el LR era útil o no, si habláramos de una droga querríamos saber si es beneficiosa o perjudicial, etc. Y que el IC “cruce” la unidad implica que el valor real de lo que tratamos de estimar puede encontrarse tanto a un lado como al otro, o lo que es lo mismo, en un grupo o en su opuesto. Volvamos a nuestro ejemplo: si el LR tiene un IC 95 0,9 a 15,2 puede ocurrir que un resultado positivo en la prueba me incremente la posibilidad de que el paciente esté enfermo (que es lo que realmente estamos buscando), cómo así también que un resultado positivo haga que sea menos probable que la persona padezca la enfermedad (un LR+ 0,9 en realidad disminuye la posibilidad, ¡en vez de incrementarla!). En ese último caso cualquiera puede inferir la falta de utilidad de la prueba.

        Si utilizáramos como ejemplo el beneficio de un fármaco, que el IC atraviese la unidad (o cambie de signo, según cómo se estén expresando los resultados) significaría que no es posible afirmar que la droga sea beneficiosa o perjudicial para el uso que se le pretende dar. Aquí es quizá más evidente el peligro de la misma, independientemente del valor que se haya encontrado y de la amplitud del IC (es decir, por más estrecho que sea, si atraviesa la unidad el IC no es útil).

 

Conclusiones:

ü  Sensibilidad y Especificidad nos hablan de “que tan buenas” son las pruebas diagnósticas, pero no nos permiten predecir resultados frente a un paciente concreto.

ü  Cuando la prevalencia pre-test sea muy baja, una prueba negativa me descartará la patología, pero una positiva no podrá aún confirmármela (VPN muy alto, pero VPP bajo) y viceversa; cuando la prevalencia pre-test sea alta, un resultado positivo me confirmará la hipótesis, pero un resultado negativo no podrá excluírmelo totalmente.

ü  Chance y probabilidad “hablan de lo mismo”, pero lo hacen de modo “diferente”, con lo cual no pueden relacionarse de modo directo.

ü  LR son multiplicadores de chance; su utilidad es tanto mayor cuanto más alejados del 1 se encuentren; sin embargo, no solo debemos utilizar este parámetro para estimar el valor de un test.

ü  Cuando necesitemos hacer un screening deberemos utilizar pruebas con la mayor sensibilidad posible; en cambio, cuando la intención sea confirmar un diagnóstico deberemos utilizar las pruebas con mayor Especificidad posible.

ü  Los IC son tanto mejores cuanto más angostos son, y siempre que un IC atraviese la unidad carece de valor real.

 

 

Referencias

 

1- Reussi R. (2.002) Evidencias en Medicina Interna. De la evidencia científica al arte de la consulta. Roberto Reussi. 1º Edición. Buenos Aires, Edición Fundación Reussi.

2- Doval H.C., Tajer C. D. (2.005) Evidencias en Cardiología IV. De los ensayos clínicos a las conductas terapéuticas. 4º Edición. Buenos Aires, Editorial Atlante - Gedic.

3- Bottasso O. Lo esencial en Investigación Clínica. Una introducción a las ciencias biológicas y médicas. 2º Edición. Rosario, Editorial Corpus.

4- Pita Fernández S., Pértegas Diaz S. Pruebas Diagnósticas. En www.fisterra.com

5- Molinero L. M. Valoración de Pruebas Diagnósticas. Asociación Española de Hipertensión, Liga Española para la lucha contra la Hipertensión Arterial. En www.seh-lelha.org

6- Como leer un artículo de diagnóstico. Parte 1. Capítulo 9. Curso Introductorio de Medicina Basada en la Evidencia. En www.intramed.net


 

[1] Evidencias en Medicina Interna. De la evidencia científica al arte de la consulta. Roberto Reussi. Edición Fundación Reussi. Buenos Aires, 2.002

 

Indice

 Puesta al día

Dronedarona para el tratamiento de la Fibrilación Auricular: el estudio ATHENA
Asma: una revisión del tratamiento
Cuando el pasado es el prólogo: el antecedente propone el diagnóstico (dos casos ilustrativos)

 

 Revista de Revistas

Riesgo de muerte asociado a la medicación de pacientes con enfermedad pulmonar obstructiva crónica (EPOC) de reciente diagnóstico.

Diez años de seguimiento de control intensivo de la glucemia en diabetes mellitus tipo 2.
Respuesta hipertensiva aguda en pacientes con Stroke. Patofisiología y manejo.

 

Artículos on line Recomendados por el Prof. Dr. Alfredo Rovere

Expanding the Recognition and Assessment of Bleeding Events Associated With Antiplatelet Therapy in Primary Care - Review
Symposium on cardiovascular diseases

 

 Análisis racional
Definición de Conceptos
¿Tiene este paciente adulto una Artritis Séptica?

 
   
©2004 - 2009  Cínica-UNR.org
Publicación digital de la 1ra Cátedra de Clínica Médica y Terapéutica
y la Carrera de Posgrado de Especialización en Clínica Médica
 
Facultad de Ciencias Médicas - Universidad Nacional de Rosario
 
Todos los derechos reservados
  Sitio web desarrollado por los Dres. Ramón Ferro y Roberto Parodi