domingo, 30 de dezembro de 2012

Santa Claus Gets a Check-Up



Como resposta a nossa última postagem, nosso colega Mário Coutinho (MD, PhD) nos enviou este vídeo que utiliza o check-up de Papai Noel como tema de propaganda da indústria do check-up. Faz exatamente o raciocínio contrário ao nosso, utiliza o apelo do esforço que Papai Noel faria no Natal para promoter o idéia do check-up cardiovascular. Como disse Mário Coutinho, "a indústria do check-up não se importa em parecer ridícula."

terça-feira, 25 de dezembro de 2012

Papai Noel precisa de check-up antes do Natal?



Na noite passada, Papai Noel trabalhou 39 horas contínuas, entregando presentes a 700.000.000 de crianças, percorrendo uma distância de 342.510.000 Km ao redor do mundo, carregando um saco de 416.000 toneladas (assumindo que um presente médio pesa 660g) - segundo fonte recente.

Embora este velhinho tenha passado por todo este esforço, até então não ouvimos notícia de que Papai Noel infartou e está internado na UTI “de um hospital privado na cidade”. Talvez tudo tenha dado certo, pois Papai Noel seja precavido e tenha feito seu check-up cardiológico no início de dezembro, como muitos costumam fazer. Isso é o que pensaria o senso comum.

Entendam por check-up a série de exames realizados no intuito de detectar perigosas doenças ocultas. Daquele tipo que costumamos ver propagandas em revistas alocadas nas poltronas das principais linhas aéras brasileiras, usualmente encartes relacionados a hospitais paulistas.

Contrariando as expectativas, Papai Noel afirmou em entrevista recente de que não costuma fazer este check-up antes do Natal, o que soou como uma certa irresponsabilidade do bom velhinho.

Sendo assim, fica a questão: Papai Noel deveria ou não deveria ter feito um check-up cardiovascular em dezembro?

Considerando sua idade, 550 anos, é grande a probabilidade de doença coronária oculta. Desta forma, se Papai Noel resolvesse fazer uma pesquisa de doença coronária com testes não invasivos (teste ergométrico, cintilografia miocárdica, ressonância de perfusão ou tomografia de coronária) seria bem possível a detecção de aterosclerose obstrutiva. Qual seria o resultado disso?



Provavelmente o Natal das crianças seria adiado.

Sim, porque o screening seria positivo; normalmente este resultado positivo desemboca na realização de cateterismo cardíaco (principalmente em pacientes VIPS como Noel), cujo resultado automaticamente leva à indicação de um procedimento, seja angioplastia coronária ou cirurgia de revascularização.

Não daria tempo, não haveria condição de Papai Noel se recuperar para distribuir os presentes na madrugada de hoje.

Mas poderia ser que valesse a pena adiar este Natal, para garantir o Natal dos próximos anos. Não sejamos imediatistas, há males que bem para o bem.

Porém este não é o caso, este mal acontece de graça, pois não traz consigo um bem maior. Isso mesmo, o check-up cardiovascular em um indivíduo assintomático não traz benefício, mesmo que isto vá de encontro ao senso comum.

Sabemos que o screening da doença coronária não previne desfechos cardiovasculares maiores. Isso está demonstrado em trabalho que randomizou pacientes de risco cardiovascular elevado para realizar ou não realizar screening, mostrando semelhança na incidência destes desfechos. Além disso, estamos cansados de saber (ensaios clínicos) que angioplastia coronária não reduz infarto e não prolonga sobrevida, quando comparada ao tratamento clínico. Portanto, Papai Noel não teria seu infarto prevenido por um procedimento deste tipo que seria induzido por um diagnóstico de doença oculta.

Em casos de doença coronária severa (triarterial ou tronco), evidência recente do estudo FREEDOM nos sugere benefício da cirurgia de revascularização na redução de morte ou infarto. Porém em pacientes com a excelente classe funcional de Papai Noel é pouco provável uma doença coronária severa.

Neste tipo de discussão, entusiastas do excesso de exames normalmente usam algum exemplo de certo paciente assintomático, cujo teste não invasivo foi positivo, levando a um cateterismo que mostrou doença triarterial grave, se beneficiando de cirurgia de revascularização. Estou cansado de ouvir isso.

Este raciocínio mediano e equivocado desconsidera o pensamento epidemiológico, que deve ser probabilístico, baseado em dados coletivos. Ao pensarmos probabilisticamente, percebemos a outra face da moeda. Enquanto um paciente é beneficiado pela solicitação de exames, outro (ou outros) sofre do overdiagnosis.

No overdiagnosis, os casos anedóticos de benefício trazido pelo diagnóstico são anulados ou até mesmo superados pelo número de pacientes que se prejudicam pelo diagnóstico.

Seria o caso de Papai Noel fazer algum exame não invasivo, mostrando doença fora do alto espectro de gravidade do estudo FREEDOM (o mais comum), levando a uma angioplastia coronária que não prolongou sua vida, não reduziu probabilidade de infarto. Tudo isso na ausência de sintomas, que poderiam se melhorados se estivessem presentes, mas não estão presentes. Sem falar em complicações mais graves de procedimentos desnecessários. Desde óbito até sequelas importantes.

Perderíamos o Natal das crianças, em troca de nenhum benefício clínico para Papai Noel.

Esse é um equívoco comum no pensamento médico: justificar procedimentos com base na possibilidade de benefício em alguns pacientes, desconsiderando a possibilidade de malefício em outros. Como mencionamos previamente, somos mais movidos por resultados positivos e nossa mente tende a desconsiderar a possibilidade de desfechos negativos. Indicamos procedimentos porque alguns podem se beneficiar, mesmo que um número maior possa de prejudicar. Acontece porque fixamos em nossa memória desfechos favoráveis, nos esquecendo de desfechos desfavoráveis.

Em 2012, percebi uma crescente preocupação com esta questão, tendo surgido recomendações médicas voltadas para evitar o overdiagnosis. Neste ano, o US Prevention Task Force classificou como inadequada a realização de eletrocardiograma de esforço em pacientes assintomáticos. Seguindo essa conduta, como parte do programa Choosing Wisely, o American College of Cardiology aponta a realização de pesquisa de isquemia em assintomáticos como uma das cinco condutas a serem evitadas na prática cardiológica. 

Claro que este raciocínio não se aplica apenas a cardiologia. Universalmente se faz screening para câncer de próstata com PSA, porém neste ano esta conduta passou a ser contra-indicada pelo US Prevention TaskForce. Não tem utilidade. Deve-se também evitar mamografia de rotina em mulheres com menos de 50 anos, ressonância de coluna se a dor lombar tiver menos de 6 semanas, exames de imagem (tomografia ou ressonância de crânio) em pacientes com sincope sem sinais neurológicos.  Enfim, são inúmeras as condutas médicas que caracterizam o overdiagnosis.



No filme de Tim Burton, Nightmare Before Christmas (O Estranho Mundo de Jack), Papai Noel é raptado por Jack, um monstro do mundo do Halloween. Sem maldade e por inocência, Jack deseja substituir Papai Noel em sua função de alegrar as crianças. No entanto, Jack é um monstro e quando entra nas casas, não traz felicidade, mas sim horror às crianças. Isso é o que acontece com a postura médica do excesso de diagnóstico. Há intenção de fazer o bem, porém a visão equivocada provoca o fenômeno do overdiagnosis: diagnóstico correto, porém dispensável, com potencial de ser deletério ao paciente.

Vivemos hoje no estranho mundo do overdiagnosis, levando os nossos pacientes ao pesadelo de serem raptados da sua condição estável, para a criação de um problema (falso em sua magnitude) que será resolvido por uma solução (falsa em seu benefício).

Meus votos natalinos neste ano são de que Papai Noel nos traga a consciência de que vivemos neste estranho mundo.

quarta-feira, 28 de novembro de 2012

A Liberdade do Conhecimento (Estudo Freedom)



De forma impactante, foi apresentado no recente congresso do American Heart Association e simultaneamente publicado no New England Journal of Medicine o ensaio clínico FREEDOM, que demonstrou cirurgia de revascularização ser um tratamento mais eficaz do que tratamento com stent farmacológico, em diabéticos com doença coronária severa (80% triarteriais, a maioria com boa função sistólica).

Do ponto de vista metodológico, este é um estudo de resultado confiável, poder estatístico adequado, diferenças estatisticamente significantes e ausência de vieses comprometedores. Sendo assim, não desenvolverei nesta postagem uma discussão quanto à veracidade da informação, pois a considero verdadeira. 

O mais interessante neste caso é perceber quais as implicações dos resultados deste estudo, que me parecem ir além da mera escolha da estratégia de revascularização.

O desfecho primário do estudo foi o combinado de morte, infarto e AVC, apenas desfechos duros (hards). Como já estamos cansados de saber que cirurgia é melhor do que angioplastia no controle dos sintomas e prevenção de novos procedimentos de revascularização, estes não foram escolhidos como partes integrantes dos desfechos combinados, seria redundante.

A redução na incidência do desfecho combinado com a cirurgia se deu a custa de redução de morte e infarto. Este resultado é muito importante, pois este é o primeiro ensaio clínico que demonstra que revascularização miocárdica reduz mortalidade, quando comparado ao tratamento clínico contemporâneo. 

Muitos imaginam que este é um efeito comprovado há muito tempo, porém isto não é exatamente verdade. Voltando ao passado, é importante lembrar que os clássicos ensaios clínicos da década de 70 (CASS, VA) não demonstraram redução de mortalidade com a cirurgia, em relação ao tratamento clínico. Na verdade estes foram estudos negativos em suas análises primárias, sendo sugerido benefício em análise de subgrupo dos pacientes no extremo superior de gravidade. Como sabemos, análise de subgrupo apenas gera hipótese. Por outro lado, o estudo Europeu mostrou redução de mortalidade e, anos mais tarde, uma meta-análise de Salim Yusuf combinou estes estudos, sugerindo melhora da sobrevida no tratamento cirúrgico. Mesmo assim, uma meta-análise que sugere benefício tem ainda 30% de probabilidade de estar incorreta, segundo publicação antiga do New England Journal of Medicine. Desta forma, podemos dizer que até então não havia evidência definitiva de que cirurgia traz benefício de mortalidade. Além disso, o tratamento clínico aplicado àquela época não possuia estatinas e era limitado em relação a terapia antitrombótica. 

Desta forma, o FREEDOM é a primeira evidência contemporânea e de alto nível demostrando que a cirurgia de revascularização tem benefício que vai além do controle de sintomas. É o primeiro dado científico que nos induz a indicar cirurgia para um indivíduo assintomático, caso este seja triarterial. Isso não parece novidade, pois já é uma conduta adotada pela maioria, devido ao nosso ímpeto de heroísmo médico não embasado em evidências. Mas esta poderia ser uma conduta mal indicada, como muitos exemplos de tratamentos adotados na ausência de evidências que depois se comprovam deletérios ou sem efeito nenhum.

Portanto, a partir de agora, a indicação de cirurgia em um paciente assintomático, porém triarterial tem melhor validação. Vale salientar que o benefício apresentado foi de grande magnitude, NNT = 13 para eventos combinados, NNT = 20 para morte, NNT = 13 para infarto.

Importante lembrar que o benefício da cirurgia foi em comparação à angioplastia. Então quando digo que a cirurgia fica indicada para pacientes assintomáticos com DAC grave, parto da demonstração (estudos COURAGE e BARI-2D) de que angioplastia não é inferior ao tratamento clínico contemporâneo, mesmo em pacientes triarteriais. Sendo estes dois semelhantes, se cirurgia é melhor que angioplastia, podemos considerar que cirurgia é melhor que tratamento clínico também. Observem que isso é uma inferência lógica. Resta a possibilidade (não duvido nada) de que em certos pacientes angioplastia seja inferior a tratamento clínico.

Sempre que o tratamento clínico se mostra semelhante à angioplastia ou o tratamento cirúrgico se mostra superior à angioplastia, médicos intervencionistas entram com o argumento de que a angioplastia não foi realizada com o melhor tratamento atual (tipos de stents principalmente). Esse é o tipo de argumento que gera o fenômeno em inglês denominado catch-22. Essa expressão significa um dilema impossível de resolver: precisamos fazer um estudo com o mais novo tipo de tratamento, mas estes estudos duram 5 -10 anos do início do planejamento até a publicação, então quando o estudo terminar, o tratamento não é mais novo. Assim, nunca teremos um estudo que prove algo ser superior à angioplastia. Boa tática para não aceitar resultados que não queremos aceitar. Ótimo exemplo de catch-22.

Um segundo aspecto importante do FREEDOM é que a superioridade da cirurgia é consistente em pacientes com escore Syntax baixo, médio ou alto. Isto fica claro na análise de subgrupo, que mostra ausência de interação (P = 0.58) entre o escore Syntax e a superioridade da cirurgia. Ausência de interação significa ausência de modificação de efeito. Ou seja, o escore Syntax não modifica do efeito da cirurgia, não modifica o fato desta ser superior à angioplastia.

Este dado desfaz um erro histórico de interpretação do estudo Syntax. A primeira publicação do Syntax não conseguiu demonstrar não inferioridade da angioplastia em relação a cirurgia. Quando foram analisados os subgrupos de acordo com o escore Syntax, houve semelhança nos pacientes de Syntax baixo e a diferença era menor nos pacientes de Syntax intermediário. Os intervencionistas gostaram destes resultado e disseram que a cirurgia só é melhor em pacientes de Syntax alto. Esse é um erro grave: fazer prevalecer o resultado de análise de subgrupo em relação à análise geral. Subgrupo apenas gera hipótese. Mas agora sabemos, não importa o Syntax: cirurgia é melhor.

Diabéticos


A esta altura da postagem, muitos devem estar pensando porque eu estou generalizando estes achados e não me referindo apenas a pacientes diabéticos. A justificativa é o princípio da complacência na análise de aplicabilidade de uma terapia. De fato, o estudo foi feito apenas em pacientes diabéticos, com doença coronariana severa. O que mais contou para o resultado encontrado? Foi o fato dos pacientes serem em sua maioria triarteriais ou o fato de serem diabéticos? De fato, diabetes é um fator de risco para desenvolvimento de aterosclerose (terceiro em ordem importância) ou seja contribui para a existência de uma doença mais extensa. Porém, uma vez a doença aterosclerótica triarterial instalada, importa se o paciente é diabético ou não? Triarterial é triarterial. Alguns intervencionistas podem argumentar que o diabético terá mais reestenose. Aí me reporto a uma postagem recente sobre o pensamento multivariado. No mundo multivariado, diabetes é um dos fatores de menor peso importantes para a desenvolvimento de reestenose (quem achou estranho o que acabo de falar, leia postagem prévia). Na análise de aplicabilidade, devemos nos perguntar: se funciona do diabético triarterial, há alguma grande razão para nos fazer duvidar que não funciona no triarterial não diabético. Esse é o princípio da complacência, que sugere sermos menos rigorosos e estender a aplicabilidade de dados verdadeiros e relevantes (NNT = 13) para uma população além da estudada (triarteriais).

Além disso, criou-se erradamente um mito de que o diabético é muito diferente do não diabético. Na verdade tem muito diabético que nem diabético era antes da redução do ponto de corte da glicemia para 125 mg/dl.

Acredito que a importância  do achado deste estudo vai além dos diabéticos. Diabetes é apenas um dos mecanismos pelo qual um indivíduo desenvolve uma doença coronariana severa, mas uma vez essa doença desenvolvida, todo mundo é “igual”. Um indício é que não há nenhum tratamento cardiovascular que funcione diferente em diabéticos e não diabéticos: a eficácia de anti-hipertensivos, estatinas, aspirina, é tudo igual.

Mas para quem ainda está cético com o que estou falando, é só olhar os resultados do seguimento de 5 anos do estudo Syntax, que envolve pacientes com doença grave em geral, não só diabéticos. O estudo ainda não foi publicado, mas ficou claro que em seguimento de longo prazo, cirurgia reduz mortalidade e infarto, quando comparado a angioplastia. Aí está a demonstração de que a coisa vai além do diabético. E isso foi independente do escore Syntax.

FREEDOM (liberdade)

Na verdade, o estudo FREEDOM nos faz perder (não ganhar) algumas liberdades. De um lado, perde-se a liberdade de banalizar o tratamento da doença coronária severa com a supervalorização da angioplastia coronária, em detrimento da cirurgia. De outro lado, perde-se a liberdade de manter o tratamento clínico apenas em pacientes assintomáticos com doença coronária severa, que sejam de baixo risco cirúrgico. Agora (só agora) sabemos que cirurgia reduz mortalidade em pacientes triarteriais.

Importante salientar que nada disso justifica a pesquisa de doença coronária em pacientes assintomáticos. Isso continua inapropriado, como já comentado algumas vezes neste Blog. Em breve, abordaremos melhor este problema de overdiagnosis.

terça-feira, 20 de novembro de 2012

Terapia de Reposição Hormonal: previne eventos cardiovasculares?

Como fazer quando uma nova evidência vai de encontro com o conhecimento vigente? Neste caso, precisamos analisar criticamente a nova evidência, comparando-a com a evidência mais antiga que atualmente norteia a conduta. Ou seja, o novo não é necessariamente melhor, temos que analisar onde está a verdade.

Isso aconteceu há algumas semanas, quando foi publicado no prestigioso British Medical Journal um estudo dinamarquês intitulado Effect of hormone replacement therapy on cardiovascular events inrecently postmenopausal women: randomised trial. Trata-se de um ensaio clínico randomizado (1.000 mulheres), demonstrando que a terapia de reposição hormonal (TRH) traz benefício cardiovascular em mulheres menopausadas. No grupo tratamento a incidência de eventos cardiovasculares foi 3.2% versus 6.6% no grupo controle (P = 0.015). Além disso, não houve aumento de câncer de mama, nem de eventos tromboembólicos.

Essa informação é contrária ao conhecimento trazido pelo WHI, grande (16.000 mulheres) ensaio clínico randomizado, publicado em 2002, o qual demonstrou que este tratamento aumenta a incidência de eventos coronários, AVC, tromboembolismo pulmonar e câncer de mama. Baseado nisso, se considera que não há indicação do uso desta terapia para fins de prevenção cardiovascular. A justificativa para este tratamento é melhora da qualidade de vida, naquelas mulheres com sintomas de menopausa.

Mas e agora?? Com este novo ensaio clínico, devemos passar a prescrever TRH em menopausadas como estratégia de prevenção cardiovascular? Inclusive os autores argumentam que o benefício foi alcançado devido à introdução precoce da droga após a menopausa (timing hypothesis), diferente do WHI que randomizou as pacientes vários anos após a menopausa. Isso mesmo, se você introduzir na hora certa, traz benefício; se introduzir na hora errada, traz maléfico. Até parece história de feitiçaria. Existe algum tratamento assim, que a depender do momento do uso gera efeitos totalmente paradoxais?

Sendo assim, antes de aceitar essa explicação causal para o resultado favorável, devemos avaliar a possibilidade deste resultado ser causado por acaso ou viés.

Acaso

Em primeiro lugar, este estudo é subdimensionado, tendo poder estatístico reduzido. Possui apenas 1.000 mulheres, um número muito abaixo das 16.000 necessárias no WHI para avaliar benefício e segurança. Inclusive a descrição do tamanho amostral não especifica a incidência esperada do desfecho, tornando impossível de avaliarmos se o cálculo de 1.000 pacientes faz sentido. Provavelmente, não. A descrição serve apenas para fazer parecer que os autores se preocuparam com poder estatístico. E na ausência de poder estatístico, uma diferença encontrada (mesmo estatisticamente significante) tem veracidade duvidosa. Ou seja, a acurácia do valor de P (em estimar a probabilidade do resultado encontrado na vigência da hipótese nula) é reduzida. Portanto, não podemos afastar o acaso como explicação do resultado encontrado. 

A este respeito, foi recentemente publicado no JAMA o trabalho Empirical Evaluation of Very Large Treatment Effectsof Medical Interventions demonstrando que estudos pequenos geram resultados mais favoráveis do que estudos grandes. Da mesma forma, estudos pequenos trazem com mais frequência resultados positivos do que estudos grandes. Percebam que estudos negativos (que não mostraram benefício) publicados em revistas de impacto sempre se tratam de grandes ensaios clínicos. Nunca vemos um pequeno ensaio clínico negativo sendo publicado em revista de grande impacto. Pequenos ensaios clínicos só são publicados quando seus resultados são positivos. Só tendo resultados positivos estes estudos conseguem ser publicados em grandes revistas. Isto é denominado viés de publicação. O problema é que estes pequenos estudos positivos possuem veracidade questionável, pois para conseguirem significância estatística um estudo pequeno necessita de uma diferença de magnitude tão grande que se torna inverossímil. Além disso, o valor de P é a estimativa de um dado resultado ser encontrado apesar da hipótese nula ser verdadeira. Quando o estudo é subdimensionado esta estimativa perde precisão, o valor de P pode não refletir a realidade.   

Viéses

Em segundo lugar, devemos avaliar a possibilidade de viéses. Este é um estudo aberto, tanto o paciente como o médico sabiam se a mulher estava utilizando a TRH. Alguns mecanismos podem fazer com que o caráter aberto enviese os resultados. Neste caso, viés de desempenho (performance bias) pode ser um deles: ao saber que a mulher está em uso de TRH, esta pode receber mais cuidados médicos, melhor controle de fatores de risco, mais atenção quanto a eventuais eventos coronários. Isso pode reduzir o risco destas mulheres, não pela TRH, mas pelo que esta traz em termos de cuidados adicionais. Além disso, a aferição de eventos pode ser enviesada por uma crença do pesquisador (não cego) no benefício da terapia. Na verdade, fico a me perguntar o que faz um pesquisador planejar um estudo de 1000 pacientes, 10 anos de seguimento e não de dá ao trabalho de cegar o estudo com uso de placebo.

Em terceiro lugar, qualquer estudo de prevenção primária em cardiologia avalia eventos relacionados diretamente a doença aterosclerótica, ou seja, infarto e AVC. Sem uma lógica prévia, este estudo colocou insuficiência cardíaca como um dos componentes do desfecho primário e foi este desfecho que mais contribuiu com o resultado. Se tivesse feito como o WHI (morte ou infarto) não haveria benefício demonstrado. Da mesma forma, se tivesse considerado morte, infarto ou AVC, a diferença não seria estatisticamente significante.

Por todos estes motivos, não podemos considerar este estudo verdadeiro em afirmar que a TRH previne eventos cardiovasculares, pois o mesmo não passa na prova da análise crítica de evidências. Este estudo de 1.000 pacientes, aberto e com definição questionável do desfecho primário não é suficiente para modificar nossa crença do prejuízo cardiovascular desta terapia criada a partir de um estudo de 16.000 mulheres, cego, com definição adequada do desfecho primário.

Este é um bom exemplo de como a análise crítica de uma evidência nos ajuda a separar trabalhos que devem modificar paradigmas daqueles que servem apenas de provocação. Este é o valor deste artigo, apenas provocar nossa reflexão.

Visão Bayesiana

Outro aspecto que deve ser discutido é a visão bayesiana na análise de evidências. Neste tipo de análise, devemos considerar a probabilidade pré-estudo do tratamento ser benéfico. Neste caso, temos o WHI mostrando que o tratamento aumenta infarto, AVC, tromboembolismo venoso e câncer. Qual a probabilidade de iniciando o tratamento mais cedo, este provocar redução de infarto, AVC, tromboembolismo venoso e câncer? É pequena. Pode até ser que o prejuízo seja menor porque as mulheres são mais jovens (menos susceptíveis), mas sair de deletério para benéfico seria algo sem precedentes. Sim, sem precedentes, pois não existe interação paradoxal. Excluindo eventos adversos, se pensamos apenas no princípio ativo primário, não conheço nenhum tratamento que seja bom em um grupo de pessoas e ruim em outro grupo. Usualmente, as interações são quantitativas e não qualitativas: é comum ver algo melhor em um grupo do que em outro, mas inversão total do efeito, de maléfico para benéfico é algo muito raro ou até mesmo inexistente.

Sendo então a probabilidade pré-estudo de benefício muito baixa, para mudar nosso pensamento necessitaríamos de uma evidência muito forte, e não é o que temos aqui. 

Entusiasmo versus Evidência

Sei que há os entusiastas da TRH para prevenção cardiovascular. Ser entusiastas do ponto de vista científico tem sua validade, mas devemos ter o cuidado para que este entusiasmo não promova uma interpretação favorável de evidências de baixa qualidade. Temo que este artigo sirva de motivo para que se passe a recomendar TRH como prevenção cardiovascular. Em 2008, uma absurda diretriz da Sociedade Brasileira de Cardiologia e Sociedade do Climatério recomendou TRH com prevenção cardiovascular, grau de indicação IIa. Agora, imagine o que “entusiastas” poderão fazer com esta nova evidência.

Sob a ótica de uma interpretação responsável e científica, até que se prove o contrário, TRH não previne eventos cardiovasculares.

quarta-feira, 17 de outubro de 2012

Consumo de Chocolate e Conquista de Prêmios Nobel



Na semana passada Franz Messerli publicou New England Journal of Medicine um intrigante trabalho demonstrando que quanto maior o consumo de chocolate de uma nação, maior o número de prêmios Nobel conquistados pela nação.

A figura acima representa esta análise. Primeiro, vamos aproveitar para revisar como interpretar uma análise de correlação.

Associação

1)    Este é um gráfico de correlação, ou seja, mostra associação linear entre duas variáveis numéricas. A variável preditora (eixo x) é o consumo de chocolate anual per capita. A variável de desfecho (eixo y) é o número de prêmios Nobel a cada 10 milhões de pessoas no país.
2)    O coeficiente de regressão (b) do consumo de chocolate foi de 2.5, indicando que o cada 1.0 Kg de consumo per capita, a nação conquista 2.5 prêmios Nobel. Mostra o grau de influência do chocolate nos prêmios.
3)    O coeficiente de correlação (r) foi de 0.79. Este mostra a força de associação linear, quanto mais próximo de 1, mais forte é a associação. Neste caso, podemos interpretar como associação moderada a forte.
4)    Se elevarmos o r ao quadrado, obteremos o coeficiente de determinação (R2 = 0.62), que representa o quanto das conquistas de prêmios Nobel pode ser explicado pelo consumo de chocolate. Neste caso, 62% dos prêmios podem ser explicados pelo consumo de chocolate.
5)    O valor de P desta associação foi < 0.0001, indicando que é muito pequena a probabilidade destes achados serem devido ao acaso.

Observem que do ponto de vista estatístico, a análise é bastante convincente. De fato, há uma verdadeira associação linear entre chocolate per capita e prêmio Nobel a cada 10 milhões de pessoas.

Em segundo lugar, devemos nos perguntar se esta associação ocorre porque o consumo de chocolate provoca conquistas de prêmios Nobel.

Causalidade

Quando a análise chega neste ponto, o pensamento deixa de ser estatístico e passa a ser baseado na lógica da causalidade. Neste caso, devemos analisar os critérios de causalidade. Em 1965, Sir Austin Bradford Hill, professor Emérito de Bioestatística da Universidade de Londres publicou o artigo “The Environment and Disease: Association or Causation?” na revista Proceedings of the Royal Society of Medicine (58:295-30), onde ele explica 9 critérios que devem ser analisados para avaliar se uma associação é causal. Este se tornaram conhecidos como Critérios de Hill. Nesta postagem citarei os 5 critérios mais importantes.

1) Força e independência da associação: diz-se que quanto mais forte é uma associação, mas provável esta ser causal. Uma associação muito forte tem menos possibilidade de ser mediada por fator de confusão. Isto porque se uma associação forte é mediada por um fator de confusão, este fator ficará muito aparente.

Além da força da associação, esta deve ser independente de fatores de confusão.

Mas o que é mesmo fator de confusão? É uma terceira variável que intermedia a relação entre a exposição (chocolate) e o desfecho (prêmios Nobel), porém essa mediação não faz parte de uma seqüência causal, ou seja, não é o chocolate levando a alguma coisa que por sua vez provoca a conquista dos prêmios. Na verdade, essa variável (fator de confusão) seria associada a chocolate e associada aos prêmios, porém essas duas associações seriam desconectadas. Sendo assim, de maneira artificial, o fator de confusão promoveria uma associação não causal entre a exposição e o desfecho. 

Esse pode ser o caso em questão. Pode ser que o consumo de chocolate esteja associado ao nível sócio-econômico do país. Por sua vez, o nível sócio-econômico está associado a melhor educação e investimento em pesquisa, predispondo ao ganho de prêmios Nobel. Observem que esse link não é causal, pois não é o consumo de chocolate que melhora do nível sócio-econômico, para que este promova os prêmios. Neste caso, o nível sócio-econômico pode ser o fator de confusão desta análise.

Mas como podemos saber se a associação é ou não mediada por este fator de confusão? Precisaríamos fazer uma análise multivariada, onde colocamos chocolate, nível sócio-econômico e prêmios Nobel no mesmo modelo estatístico, e verificamos se a associação entre chocolate e prêmio independe do nível sócio-econômico. Se for independente, sugere causalidade (mas não garante). Essa análise não está presente no estudo, portanto está faltando um critério essencial para se demonstrar causalidade.

Portanto, força de associação fala a favor de causalidade, mas não é uma condição necessária. Já independência da associação é uma condição necessária para causalidade, porém não suficiente. Outros critérios devem ser obedecidos.

2) Plausibilidade: além de existir uma associação independente, deve haver uma razão lógica para que a variável preditora esteja causando o desfecho. Por exemplo, colesterol possui associação independente com infarto e há plausibilidade para se acreditar que esta relação é causal. Claro, é provavelmente o acúmulo do colesterol na parede do vaso que faz surgir a placa aterosclerótica, que será responsável pelo infarto.

Por outro lado, há muitas associações que carecem de lógica causal.

Acreditar que consumir chocolate promove um aumento da função cognitiva capaz de influenciar na produção de prêmios Nobel, com esta força de associação, é querer demais. Portanto, não há plausibilidade biológica para tal, até porque se isso fosse verdade chocólatras seriam evidentes gênios e podemos perceber exemplos contrários à nossa volta. Sendo assim, a conclusão do trabalho carece do segundo critério, o de plausibilidade.

3) Temporalidade: para que consideremos uma relação causal, o desenho do estudo deve nos garantir que a exposição veio antes do desfecho, pois a causa deve vir antes da conseqüência. Isso é o que ocorre em estudos de coorte prospectiva. Por exemplo, a coorte de Framingham demonstrou que níveis elevados de colesterol medidos no início do estudo (quando ninguém tinha tido o desfecho) se associaram à ocorrência do desfecho infarto ao longo do seguimento de longo prazo.

Porém isso não ocorre com nosso estudo do chocolate. As duas informações (consumo e Nobel) foram colhidas no mesmo momento. Pode ser até que o padrão de consumo maior de chocolate tenha surgido depois das conquistas de prêmios Nobel, se tornando impossível que aquele seja o causador dos Nobel. Na ausência dos critérios de temporalidade, pode existir o fenômeno de causalidade reversa: o ganho dos prêmios Nobel induzindo a uma maior consumo de chocolate – embora isso também careça de plausibilidade.

Portanto, este é mais um critério de causalidade que está ausente no trabalho.

4) Gradiente Dose-resposta: quanto maior o nível do preditor, maior a intensidade do desfecho. Esta é uma relação que se observa nesse estudo, visto que há demonstração de correlação positiva.

5) Reversibilidade Experimental: este é o critério que representa a validação final de uma relação causal, e deve ser proveniente de ensaios clínicos randomizados. Significa que ao controlar o preditor em um experimento controlado (ensaio clínico), o desfecho reduz. Isso ocorre no caso do colesterol. Ensaios clínicos randomizados indicam que na medida em que estatinas reduzem o colesterol, o risco de infarto diminui. Isso valida o colesterol como causador da doença coronária.

Se acreditamos que chocolate promove aumento da função cognitiva a ponto de gerar mais prêmios Nobels, ao reduzir o chocolate de uma nação, seus prêmios iriam reduzir ao longo do tempo. Não é esse tipo de evidência que se faz presente neste estudo, que é puramente observacional.

Há casos de variáveis que não fecham o ciclo de validação como fatores de risco, visto que seu controle não promove redução de risco. O caso mais recente é o do HDL-colesterol baixo, cujas drogas que promovem aumento em sua concentração não resultam em benefício clínico. É bem provável que este não seja um fator de risco, apenas seja uma marcador de risco.

Na recente década de 90 acreditava-se que infecção na placa aterosclerótica agravava a doença coronária. Porém, o uso de antibióticos em ensaios clínicos não modificou a incidência de desfechos coronários (versus placebo), fazendo cair por terra a hipótese infecciosa.

Sendo assim, uma breve análise dos critérios de causalidade nos sugerem que este trabalho está longe de provar uma associação causal entre consumo de chocolate e conquistas de um prêmio Nobel. Na verdade, o trabalho não passa de um brincadeira do autor que usou esta correlação para chamar a atenção de que associação e causalidade não são a mesma coisa. Uma brincadeira tão inteligente que resultou em um artigo no New England Journal of Medicine.

A Verdade

Por que o gráfico mostra que países como Noruega, Áustria, Dinamarca, Finlândia possuem um desempenho científico muito melhor do que os Estados Unidos? Tem algo errado, pois sabemos que os Estados Unidos são o país de maior produção científica do mundo. O erro está em ajustar o número de prêmios Nobel para cada 10 milhões de habitantes, pois a grande maioria destes habitantes não são cientistas e não estão contribuindo nada com isso. Os Estados Unidos são os que possuem a maior população e a maioria de qualquer população não é cientista. Como a população fica no denominador da fração, isso reduz o índice de prêmios Nobel dos Estados Unidos. O correto seria ajustar o número de prêmios para o número de cientistas do país e não para a população geral. Ao fazer errado, a medida de premiação beneficiou países pequenos da Europa, que coincidentemente consomem muito chocolate. Tudo não passa de um viés de análise de dados.

domingo, 30 de setembro de 2012

O que é Intervalo de Confiança?



Vemos com muita frequência o uso de intervalo de confiança nos resultados de diferentes tipos de estudos. Por exemplo, em estudos que avaliam eficácia terapêutica ou marcadores de risco, a descrição do risco relativo sempre é seguida do intervalo de confiança. Em estudos de acurácia, as medidas de sensibilidade e especificidade devem também ser seguidas do intervalo de confiança. Em estudos descritivos, de prevalência ou incidência, estas proporções devem ter seus intervalos de confiança.

Imaginem que um ensaio clínico randomizado afirma que “o risco relativo da droga em relação ao placebo foi 0.78 (95% IC = 0.68 – 0.88).

O que significa isso?

Se nossos estudos avaliassem toda a população-alvo do estudo, teríamos plena confiança nos resultados. Porém isso não é factível na maioria dos casos, fazendo com que estudemos amostras, ao invés da população. Ao estudar um parte da população (amostra) podemos dar o azar (acaso) de encontrar um resultado que difere da realidade. Por isso, devemos estimar a precisão estatística do resultado. Como fazer?

Poderíamos pensar, se não tenho certeza de que minha amostra está correta, farei um segundo estudo para checar. Neste segundo estudo, imaginem que o resultado do risco relativo foi 0.77, ao invés de 0.78. Puxa vida, então como saber onde está a verdade? Bem, façamos um terceiro estudo, cujo resultado foi 0.79. O jeito é fazer um quarto estudo, e assim sucessivamente ... Ao completar 100 estudos nesse processo de busca do verdadeiro risco relativo, vamos nos deparar com uma variação dos resultados destes estudos. Utilizando esta variabilidade dos resultado, calculamos o intervalo de confiança.

O intervalo de confiança no nível 95% (95% IC) significa que o resultado estará dentro daquele intervalo em 95 dos 100 estudos hipoteticamente realizados, ou seja, o risco relativo estará entre 0.68 e 0.88. O 5 estudos excluídos deste intervalo representam valores extremos que possuem maior possibilidade de terem ocorrido por acaso. Por isso são excluídos de um intervalo que deseja estimar onde está a verdade.

Desta forma, a leitura correta do intervalo de confiança é: podemos afirmar que em 95 de 100 amostras hipotéticas, o resultado estará dentro deste intervalo.

O valor de 0.78 é uma medida central, mais próxima da verdade, porém não há garantia de que seja exatamente isso. A garantia é de que o risco relativo não está acima de 0.88, nem abaixo de 0.68. Observem que quanto mais estreito o intervalo de confiança, mais precisa é a estimativa. E essa é exatamente a definição estatística de precisão, a capacidade de um resultado se repetir em diferentes medidas da mesma realidade.

Se a medida em questão possuir um valor que representa a hipótese nula do trabalho, podemos usar o intervalo de confiança para avaliar significância estatística. No caso do risco relativo (ou do hazard ratio), o valor 1 representa ausência de diferença entre grupo tratamento versus grupo controle; ou expostos ao fator de risco versus não expostos. Portanto, se o intervalo de confiança do risco relativo envolver o valor 1, o estudo não terá significância estatística para rejeitar a hipótese nula. Pode conferir, isso sempre coincide com um valor de P maior do que 0.05. No caso da redução absoluta de risco, o intervalo de confiança não deve envolver o zero para ter significância estatística.

Há situações em que o intervalo de confiança se refere a uma medida descritiva simplesmente, não há teste de hipótese (nem hipótese nula). Por exemplo quero descrever qual é a média do colesterol de uma população. Encontramos uma média  de 220 mg/dl e podemos usar o intervalo de confiança para estimar a precisão dessa afirmação. Também serve para variáveis categóricas, ou seja, intervalo de confiança de proporções, tipo: prevalência, incidência (risco), sensibilidade, especificidade.

Mas como se calcula o intervalo de confiança?

Claro que não precisamos fazer 100 estudos para calcular. Podemos obter este intervalo com apenas um estudo realizado, ainda bem. Estudando apenas uma amostra e utilizando fórmulas estatísticas que levam em consideração o tamanho amostral, a  variabilidade de uma variável contínua (a redundância foi proposital) ou a frequência do desfecho quando a variável é categórica. Essas fórmulas nos fornecem o erro-padrão, que é a medida de incerteza do estudo. Simplesmente, o resultado encontrado na amostra ± 1.96 erros-padrão = intervalo de confiança.

Curiosidade: Por que 1.96? Este é o valor de Z que delimita 95% de probabilidade de acordo com a curva de distribuição normal (mas não se preocupem em entender isso).

Quando a variável é numérica, fica fácil calcular o erro-padrão, pois este é o desvio-padrão dividido pela raiz quadrada do tamanho amostral. Quando a variável é uma proporção, utiliza-se uma fórmula um pouco mais complexa. Há calculadoras online (vejam aqui) que nos permitem calcular intervalo de confiança de uma proporção, digitando apenas o numerador e o denominador da fração.

O intervalo de confiança é uma medida pouco entendida, pois não estamos acostumados a pensar assim no cotidiano. Precisamos permitir que este conceito penetre em nossas mentes. Por exemplo, não existem pessoas 100% confiáveis, qualquer um mente de vez em quando. É só assistir ao filme de Liar Liar (1997, com Jim Carrey), que perceberemos o quanto caótica seria a vida sem pequenas mentiras. Por outro lado, mesmo reconhecendo que alguém mente, podemos identificar que esta pessoa tem um intervalo de confiança que nos deixa tranqüilos em saber que não seremos traídos por ela em assuntos relevantes. Ao invés de tratar pessoas de forma dicotômica (honestos ou desonestos), podemos classificá-las de acordo com a amplitude de seu intervalo de confiança

No julgamento do Mensalão, há réus com intervalos de confiança extremamente amplos, chegando próximo ao infinito. O que me parece é que quanto mais amplo o intervalo de confiança, mas cara de pau a pessoa é. Pena que aquele com intervalo de confiança mais amplo de todos não esteja oficialmente como réu do Mensalão.

domingo, 23 de setembro de 2012

Pensamento Relativo versus Pensamento Absoluto




Recentemente publicada no British Medical Journal uma interessante descrição da frequência do uso de medidas de associação relativas versus absolutas em artigos científicos. Naquele trabalho,  foi estudada uma amostra de 334 artigos publicados durante o ano de 2009 nas principais revistas de impacto, de escopo médico (NEJM e Lancet) ou epidemiológico. Em 75% dos artigos apenas medidas relativas foram descritas, em 18% apenas medidas absolutas e em 7% ambas.

A partir daí, devemos refletir sobre o porquê da predileção pelo relativo, se isso é bom ou ruim. Neste contexto, faremos uma revisão destas medidas de associação, apontando  vantagens e desvantagens do uso do relativo e absoluto.

No cotidiano, as pessoas tendem a valorizar mais o relativo do que o absoluto, como se o relativo representasse uma forma “maior” de pensar. O termo “isso é relativo” é muito usado no intuito de propor um pensamento mais avançado a respeito de uma dada questão; “vamos relativizar” indica uma percepção de que as coisas devem ser analisadas de acordo com seu contexto. É como se o pensamento relativo fosse a palavra final ou uma palavra mais equilibrada no julgamento das coisas.

Por outro lado, no raciocínio médico baseado em evidências, o absoluto é mais valorizado quando julgamos a magnitude do benefício de uma conduta ou a magnitude do dano causado por um fator de risco. Em várias postagens deste Blog, enfatizamos a importância da redução absoluta de risco como a medida mais adequada na análise de relevância de um tratamento. Inclusive esta é usada para calcular o NNT. Já as medidas relativas podem gerar falsa impressão, uma impressão mais favorável ao tratamento do que é a realidade.

Mas antes de avançar nesta discussão, vamos revisar estes conceitos.

O risco relativo (RR) é calculado pela razão entre o risco do tratamento / risco do controle, por exemplo, risco da droga / risco da placebo. RR < 1 indica efeito protetor do tratamento, pois o risco deste (numerador) é menor do que o risco do controle (denominador). Um RR > 1 indica efeito deletério do tratamento, sendo também usado para avaliação de fatores de risco. Por exemplo, risco de câncer dos expostos a tabagismo / risco dos não expostos é maior do que 1, indicando dano.

Em um ensaio clínico, se o grupo droga apresenta mortalidade de 3% e o grupo placebo de 10%, o RR (3/10) será 0.30. A partir do RR, podemos calcular a redução relativa do risco (RRR) pela fórmula 1 – RR. Ou seja, 1 – 0.30 = 0.70, que significa 70% de redução relativa de risco. Essa é a mensuração do benefício relativo.

Já a redução absoluta do risco é a simples subtração do risco no grupo controle pelo risco no grupo de tratamento ativo. No exemplo acima, 10% - 3%, indica 7% de redução absoluta de risco. Observem que numericamente o relativo (70%) impressiona mais do que o absoluto (7%).

Quando falamos de fatores de risco, essa medida seria o aumento absoluto do risco, calculado pela subtração do risco nos expostos ao fator pelo risco nos não expostos. 

De acordo dados citados no Jornal Nacional, empresas aéreas brasileiras são fatores de risco para acidentes de avião, quando comparadas a empresas americanas. Dividindo a probabilidade de acidente no Brasil pela probabilidade nos Estados Unidos, chegamos a 6.8 de risco relativo no Brasil em relação aos Estados Unidos, um aumento relativo de 5.8, ou seja, 580%. Viajar de avião na TAM (por exemplo) aumenta em 580% o risco quando comparado à American Airlines. Isso poderia dar uma boa propaganda para a AA. Mas quando olhamos o aumento absoluto do risco, verificamos que este é ínfimo. Na verdade, o risco absoluto de acidente nos Estados Unidos é muito baixo (0.26 acidentes por 1 milhão de vôos). Mesmo que a gente multiplique isso por 6.8 (risco relativo), o Brasil continua com um risco absoluto muito baixo, equivalente a apenas 1.76 acidentes/1 milhão do vôos. Ou seja, em termos absolutos a mudança é mínima, embora pareça uma grande mudança se falarmos em 580% de aumento. Viajar pela TAM incrementa apenas 1.5 acidentes a cada 1 milhão de vôos.

Parênteseusei TAM e a AA apenas como exemplo do Brasil e Estados Unidos, para o texto ficar mais atraente. Eu poderia ter falado em Gol e Delta. TAM, por favor não tire minhas milhas.

A indústria farmacêutica sempre faz isso. Ao mostrar o efeito benéfico de uma droga, prefere usar risco relativo, dando uma boa impressão. Uma vez vi uma propaganda em que o benefício era descrito em redução relativa de risco, mas o malefício da droga (efeito adverso) era descrito em redução absoluta de risco.

A indústria faz os médicos de idiotas a todo momento com manipulações deste tipo. Primeiro, dão uns presentinhos aos médicos (de almoço em congressos a passagens aéreas), tornando-os susceptíveis a ouvir baboseiras.  Com um presentinho no bolso (ou uma caixinha de lanche no colo) e uma quase proposital ignorância em relação a simples medidas de risco, os médicos passam a acreditar em contos de fada, aceitando argumentos baseados apenas no relativo. De fato, o mundo é relativo, a depender do nosso interesse, acreditamos mais ou menos nas coisas.

Mas não é só a indústria que prefere as medidas relativas. Os autores as preferem também, tal como evidenciado pelo artigo do British Medical Journal, onde 75% dos artigos não descrevem o absoluto, apenas o relativo. Independente do autor ter ou não vinculo com a indústria, o texto fica mais atraente ao usar o relativo. O estudo COMMIT mostrou que Clopidogrel reduz desfechos cardiovasculares em pacientes com infarto. A redução relativa do risco foi de 9%, enquanto a redução absoluta do risco foi de 1%. Qual você usaria no resumo do artigo? Imaginem a frase, Clopidogrel reduz em 1% o risco de eventos cardiovasculares. Mas a realidade é essa, ou seja, o NNT é de 100.

Até este ponto, reforçamos a crítica relativo, relembrando que a verdadeira relevância está no absoluto. O que precisamos discutir agora é o valor do risco relativo e da redução relativa de risco.

Se criticamos as medidas relativas, por que elas existem, onde está sua utilidade? Na verdade, elas são muito úteis também. 

O efeito intrínseco de uma terapia (ou fator de risco) está no relativo e não no absoluto. Isto porque a redução absoluta do risco não depende apenas da terapia, mas também do risco basal do paciente. Esta medida, assim como o NNT, varia de paciente para paciente. Para uma mesma terapia, pacientes de alto risco apresentam um NNT melhor (menor), enquanto pacientes de baixo risco apresentam um NNT pior (maior).

Já o efeito relativo do tratamento não é influenciado pelo risco basal do paciente.

Aí está o valor de saber a redução relativa do risco, pois aplicando esta medida ao risco basal do paciente, saberemos qual o NNT específico daquele tipo de paciente. Por exemplo, sabemos que anticoagulação na fibrilação atrial promove uma redução relativa do risco de AVC de 60% (resultado de ensaios clínicos). Imaginem um paciente cujas características clínicas indiquem 12% de probabilidade anual de AVC de acordo com o escore CHADS. Assim, 60% x 12% = 7% de redução  absoluta. Isso dá um NNT de 14. 

Por outro lado, se for um paciente com risco basal de apenas 3%, multiplicando 60% x 3% teremos 1.8% de redução absoluta de risco, com NNT de 56. Percebam como muda a redução absoluta de risco, de um benefício de grande magnitude para um de pequena magnitude.

Sabendo então o real benefício absoluto que paciente vai receber com a terapia, podemos tomar melhor decisões de risco/benefício ou custo/benefício. Aí entra o julgamento clínico na decisão, tal como descrito em postagem anterior.

Quando analisamos a relevância de uma terapia em um ensaio clínico, devemos saber que aquele NNT calculado se refere à média dos diferentes pacientes avaliados no trabalho. Seria um NNT médio. Mas devemos ter em mente que nos extremos este NNT tende a ser melhor ou pior. Em postagem prévia, concluímos que o Ticagrelor não é nenhuma panacéia, pois o NNT do estudo Plato (para eventos combinados) é de 52. Desta forma, se esta droga tiver que ser usada, que seja feita apenas nos pacientes de alto risco de acordo com o Escore GRACE, pois neste caso o NNT seria otimizado.

Isto é o que podemos chamar de árvore de decisão clínica, a qual deve ser feita nesta sequência:

1) Calculamos o risco absoluto do paciente, baseado nas estimativas de modelos probabilísticos validados (escores de risco).
2) Identificamos com base em evidências científicas de qualidade qual a redução relativa do risco com o tratamento.
3) Aplicamos (multiplicação) esta redução relativa ao risco absoluto, encontrando a redução absoluta do risco naquele paciente.
4) Calculamos o NNT (100/RAR).

5) No caso de haver um lado ruim da terapia, devemos fazer o mesmo procedimento acima. Ou seja, começamos calculando o risco basal do efeito adverso.
6) Aplicamos o aumento relativo do risco de efeito adverso com a terapia a este risco basal, encontrando o aumento absoluto do risco e o NNT para dano, que também é chamado de NNH (number needed to harm).
7) Depois comparamos o NNT com o NNH e decidimos se naquele paciente específico o benefício supera o risco. Isso pode variar de paciente a paciente.

Desta forma, fica claro a utilidade do relativo. O relativo é a propriedade intrínseca da droga. Esta propriedade usualmente é constante em diferentes tipos de paciente, tal com pode ser demonstrado por análises de subgrupo que indicam consistência do efeito de um tratamento benéfico.

A redução relativa do risco está para a acurácia (sensibilidade e especificidade) de um exame, assim como a redução absoluta do risco está para o valor preditivo do resultado deste exame. Lembram que o valor preditivo do método depende não só do resultado do exame, como também na probabilidade pré-teste. Da mesma forma, a redução absoluta do risco depende não só do efeito do tratamento (redução relativa), mas também do risco basal do paciente (pré-tratamento).

Muito interessante como o relativo interage com o absoluto em prol de um pensamento médico mais aprimorado, individualizando as características do paciente para uma decisão mais acertada. Quem disse que medicina baseada em evidência não individualiza o paciente? Existem ferramentas que proporcionam nossa capacidade de sair da leitura do artigo científicos e aplicar o conhecimento de forma diferente em pacientes diferentes. Foi o que fizemos nesta postagem. 

Portanto, ambos tem seu valor, o relativo e o absoluto se complementam. E se os autores apenas reportarem o relativo ou o absoluto (como fazem 83% dos artigos), é fácil calcular o outro, não precisa ser gênio. Apenas se acostumar a pensar de forma científica e ordenada.

Parece pouco intuitivo, pois estamos acostumados a pensar que o relativo conota variação de acordo com a situação. Mas é a aplicação do relativo como uma constante que nos mostra a variação do absoluto a depender de cada situação. Como Einstein diria, E = M x C2 é a mesma para cada situação, o que muda é a massa da matéria, tal como muda o risco basal do paciente. A massa na física corresponde ao risco do paciente calculado com base nos escores. É a "massa do risco".