Precisamos de uma investigação completa do STAR * D Scandal

Há algum tempo, a comunidade médica – e até certo ponto, o público em geral – entendeu que os relatórios na literatura médica de ensaios financiados pela indústria de medicamentos psiquiátricos não fornecem uma representação precisa dos méritos das drogas. Os ensaios dos psicotrópicos de segunda geração foram freqüentemente tendenciosos pelo projeto; Os resultados publicados foram girados; eventos adversos foram minimizados; estudos negativos não foram publicados. Os estudos publicados na literatura médica realmente contam um exercício de marketing, ao contrário de um científico.

No entanto, a comunidade médica e o público há muito pensaram – ou pelo menos esperavam – que estudos de drogas psiquiátricas financiados pelo Instituto Nacional de Saúde Mental não estejam igualmente contaminados. Aqui, pelo menos, os relatórios publicados dariam estudos que não eram tendenciosos por design, com os resultados sinceros. Pelo menos essa é a expectativa. E é por isso que o estudo STAR * D da NIMH é uma decepção, e por que é tão importante que os detalhes completos desse escândalo sejam divulgados.

O psicólogo de Maryland, Ed Pigott, passou mais de cinco anos investigando os detalhes desse estudo. Ele é autor ou co-autor de três artigos de revistas sobre isso, e agora está publicando novas descobertas, juntamente com documentos de suporte, em um blog. Em sua última publicação, Pigott fala de como ele pediu que duas revistas, o Journal of Clinical Psychopharmacology and Psychological Medicine , retractassem dois artigos STAR * D que publicassem.

Ao fazê-lo, Pigott continua a colocar um destaque sobre esse escândalo, o que, acredito, precisa ser minuciosamente investigado pelo NIH ou outro órgão de investigação governamental. Precisamos conhecer todos os pecados científicos que foram cometidos, e precisamos de uma contabilização dos conflitos de interesses financeiros dos pesquisadores. STAR * D foi aclamado como o maior teste de antidepressivos já realizado, com um custo de US $ 35 milhões para os contribuintes americanos, e nós merecemos saber por que os resultados não foram sinceros.

Aqui estão vários dos principais pecados que Pigott e outros revelaram:

• Os pacientes que iniciaram Celexa na etapa inicial do teste, mas depois abandonaram sem ter seus sintomas de saída medidos pela Hamilton Rating Scale of Depression (HRSD), deveriam ser considerados como falhas de tratamento. Os autores da STAR * D não incluíram essas falhas ao calcular taxas de remissão e resposta.

• No relatório de resultados, os pesquisadores da STAR * D incluíram pacientes que estavam muito deprimidos na linha de base (conforme medido pelo HRSD) para serem elegíveis para inclusão na análise de resultados, aumentando assim a resposta relatada e as taxas de remissão.

• O protocolo especificou o HRSD como a principal ferramenta para medir os resultados. No entanto, em seus artigos publicados, os autores da STAR * D mudaram para os resultados de relatórios, conforme medido pela escala de Inventário Rápido de Sintomas Depressivos – Auto Report (QIDS-SR). Essa mudança, diz Pigott, "teve um impacto dramático na inflação das taxas de remissão e resposta de STAR * D".

• Os autores esconderam o fato de que apenas 108 dos 4.041 pacientes que entraram no teste remitiram e depois ficaram bem e no julgamento durante o acompanhamento de um ano. Essa é uma taxa documentada de retenção de poço de 3%; Os autores da STAR * D publicaram relatórios que indicavam que cerca de 40% dos pacientes entrantes remitiam e ficaram bem durante o período de manutenção.

• Em um artigo de resumo STAR * D, os pesquisadores arredondaram resultados seis vezes de forma incorreta.

Como Pigott observa, todas essas maquinações estatísticas serviram para inflar as taxas de remissão e resposta relatadas. "Esta é uma história de fraude científica", disse ele.

Em uma carta de 5 de abril aos editores do Journal of Clinical Psychopharmacolog , Pigott pediu uma retração de um artigo que publicou em abril intitulado "Sintomas residuais em pacientes ambulatoriais deprimidos que respondem por 50%, mas não se remeteram a medicamentos antidepressivos". Mais tarde, ele escreveu os editores da Medicina Psicológica para pedir que retractassem um artigo de 2010 intitulado "Sintomas Residuais Após Remissão do Transtorno Depressivo Maior com Citalopram e Risco de Recaída".

Em suas cartas aos editores, Pigott recitou todas as várias maneiras pelas quais os investigadores inflacionavam as taxas de remissão e resposta. Além disso, ele acusou que os investigadores mentiram sobre o uso da escala QIDS-SR, apresentando-a como uma avaliação cega, quando na verdade grande parte dos dados QIDS-SR foram coletados de forma não cega.

De acordo com Pigott, o protocolo declarou que o QIDS-SR seria administrado de forma não cega por um coordenador de pesquisa clínica no início de cada visita clínica. O protocolo "excluiu explicitamente" o uso desta avaliação não cega para medir os resultados. No entanto, o protocolo também afirmou que o QIDS-SR seria administrado periodicamente à medida que os pacientes se moviam de um estágio para outro usando um sistema de "resposta de voz interativa baseada em telefone", que assim reuniria dados "cegos". No entanto, nos artigos que Pigott quer retraídos, os investigadores da STAR * D relataram resultados que disseram que foram coletados através da administração do QIDS-SR por telefone "dentro de 72 horas de cada visita clínica". Pigott mantém isso impossível, porque o O protocolo não exigiu essas avaliações de telefone após cada visita.

Se Pigott estiver correto sobre isso, os pesquisadores da STAR * D não apenas trocaram escalas para inflar as taxas de remissão e resposta relatadas (de HRSD para QIDS-SR), também relataram – pelo menos nos dois artigos que Pigott quer retraídos – que os dados do QIDS-SR eram dados cegos, quando na verdade eram dados não cegos.

Pigott observou que há outro problema com os dois artigos que ele deseja retrair. Nesses relatórios, os pesquisadores da STAR * D confiaram nos dados QIDS-SR para concluir que poucos pacientes experimentaram ideação suicida "emergente do tratamento". Por exemplo, no artigo do Journal of Clinical Psychopharmacology , os investigadores da STAR * D escreveram que "a ideação suicida era o sintoma emergente de tratamento mais comum", ocorrendo em apenas 0,7% dos pacientes ". Concluiu que" este estudo fornece novas evidências para sugerir poucas ou nenhuma relação entre o uso de um inibidor seletivo de recaptação de serotonina e ideação suicida auto-relatada ".

Os pesquisadores da STAR * D estão buscando aqui para remover a nuvem escura de suicídio induzido por drogas dos SSRIs. Mas, como Pigott observou em suas cartas de retração, os pesquisadores da STAR * D relataram anteriormente em 2007 – em artigos publicados no American Journal of Psychiatry   e Archives of General Psychiatry – que mais de 6% dos pacientes que tomaram Celexa experimentaram idéias suicidas emergentes de tratamento, e essa taxa muito maior também foi derivada do QIDS-SR. Então, como – e por que – essa taxa declina para 0,7% nos artigos mais recentemente publicados?

Quanto ao porquê, aqui está uma possibilidade especulativa. Nos artigos anteriores, os pesquisadores relataram que eles podem ter encontrado "marcadores genéticos" para prever pacientes que estariam em alto risco de sofrer esse efeito colateral, com vários dos investigadores STAR * D que apresentavam uma patente nos biomarcadores. Assim, é fácil ver que o relatório de uma maior taxa de ideação suicida tornaria essa patente potencialmente mais valiosa do que uma taxa menor (uma vez que os biomarcadores poderiam ajudar a minimizar um risco muito significativo com o uso das drogas). Mas nos dois mais artigos recentemente publicados, os autores chegaram a uma conclusão que apresentou a Celexa (e outros SSRIs) em uma luz favorável. E por que eles estão ansiosos para fazer isso? A maioria dos autores da STAR * D teve vínculos financeiros com a Forest Pharmaceuticals e outros fabricantes de SSRIs. Nos artigos recentes, as forças financeiras empurraram para descobertas em uma direção diferente.

Quanto ao "como", os pesquisadores – em seus artigos recentes – não se referiram aos relatórios anteriores e, portanto, não explicavam a discrepância. Mas os artigos mais recentes relatam um subconjunto menor de pacientes do que os anteriores. Assim, ao não fazer referência aos resultados dos artigos anteriores, os pesquisadores estão cometendo outro pecado científico que se enquadra no campo da "mineração de dados". Os pesquisadores analisarão os dados para vários grupos de populações e depois publicarão os resultados que fazem com que a droga pareça Boa. Aqui, eles estão apresentando os dados do subconjunto como evidência "global" de que os SSRIs não causam ideação suicida emergente do tratamento, mesmo que essa descoberta seja contrariada por seus artigos anteriores, que relataram ideação suicida emergente de tratamento em um grupo maior de pacientes .

Os editores das duas revistas informaram a Pigott de que não retirarão os artigos. Sua resposta é, de fato, compreensível. Eles não têm nenhuma maneira de saber o que é verdadeiro e o que não é. "Nós não temos acesso ao protocolo, ou outros documentos que não estão no domínio público. . . [e] o Jornal não está no negócio da investigação ", explicaram os editores do Journal of Clinical Psychopharmacology em sua resposta a Pigott. "Suas preocupações são abordadas melhor, por exemplo, para o projeto NIH ou agente contratado que supervisiona o estudo e / ou para o presidente do departamento na instituição do autor seniores".

É o que precisamos agora – uma investigação. Precisamos de um grupo independente de pesquisadores para revisar os dados e informar qual a porcentagem de pacientes que foram elegíveis para o teste "remitido" de acordo com a escala HRSD, com essa porcentagem calculada com base na metodologia especificada no protocolo. Precisamos saber por que os dados de resultados a longo prazo foram ocultos. Precisamos saber se os pesquisadores, em seus relatórios de dados de QIDS-SR, estavam confiando em avaliações não cegas feitas pelos coordenadores de pesquisa clínica, ou em avaliações feitas por telefone e se os pesquisadores distinguiram corretamente entre os dois na sua artigos (ou, em vez disso, mentiu para os leitores sobre isso). Precisamos saber por que os pesquisadores relataram uma taxa muito baixa de ideologia suicida emergente de tratamento em artigos recentemente publicados e quase uma taxa dez vezes maior em um conjunto anterior de artigos.

Também precisamos de uma investigação dos interesses financeiros dos pesquisadores. A maioria tinha vínculos com Laboratórios Florestais ou algum outro fabricante de antidepressivos, e assim eles estavam em condições de querer informar que as drogas eram eficazes. Um dos principais investigadores, John Rush, possuía os direitos autorais para o QIDS-SR. Assim, usar o QIDS-SR para avaliar os resultados neste proeminente julgamento serviria para validar seu uso e isso prometeu tornar os direitos de autor muito mais valiosos. Os pesquisadores que podem ter encontrado um marcador genético para aqueles que correm o risco de experimentar ideação suicida causada por drogas tiraram uma patente sobre suas descobertas. Como todos esses laços financeiros afetaram o relatório de resultados?

O público perdeu a de que os ensaios financiados pela indústria de drogas psiquiátricas serão projetados e relatados honestamente. Agora, com os relatórios contínuos deste escândalo STAR * D, o público tem motivos para perder a fé nos julgamentos financiados pela NIMH de drogas psiquiátricas. Precisamos de uma investigação minuciosa e honesta da STAR * D para que essa fé seja restaurada.