Mostrando entradas con la etiqueta doctor. Mostrar todas las entradas
Mostrando entradas con la etiqueta doctor. Mostrar todas las entradas

domingo, 7 de diciembre de 2025

Entrevista a John Ioannidis La ciencia bajo presión, la humanidad en riesgo

Fuentes: Viento Sur


Ioannidis ha dedicado su carrera a exponer los débiles cimientos de gran parte de la medicina moderna. Su artículo de 2005, Why Most Published Research Findings Are False (“Por qué la mayoría de los hallazgos de investigación publicados son falsos”), se convirtió en el más leído en la historia de PLOS Medicine y ayudó a encender un debate global sobre la reproducibilidad. Desde entonces ha advertido sobre cómo la medicina basada en la evidencia puede ser secuestrada por la influencia de la industria, cómo los sistemas de recompensas sesgados en la academia favorecen la cantidad sobre la calidad y cómo incluso las revisiones sistemáticas pueden reciclar datos defectuosos. Sus críticas se extienden a la psiquiatría, donde los ensayos financiados por farmacéuticas suelen inclinarse hacia resultados positivos, las guías son moldeadas por personas con intereses dentro del campo y los hallazgos en neurociencia son más frágiles de lo que parecen.

Es profesor titular en Stanford y cuenta con una amplia formación en medicina, epidemiología, salud poblacional y ciencias de datos. Tanto como es 
n defensor de la buena ciencia, Ioannidis también es amante de las artes y las humanidades. Es novelista, enseña poesía, ama la ópera y él mismo ha escrito libretos para cuatro óperas.

En esta entrevista, aborda el extenso sesgo que impregna la investigación científica, las prácticas problemáticas y presiones que permiten que la ciencia defectuosa prospere, y los problemas significativos con la investigación sobre antidepresivos. Al mismo tiempo, nos recuerda por qué la buena ciencia es un regalo para la humanidad y algo que debemos proteger por nuestro bienestar y dignidad.

La transcripción a continuación ha sido editada por extensión y claridad.

Entrevista a John Ioannidis
Ayurdhi Dhar (AD): Siempre dices que la ciencia es lo mejor que nos ha pasado, y tu trabajo ha sido hacer y proteger la buena ciencia. También tienes un amor igual por las artes y las humanidades. Me gustaría saber un poco sobre cómo llegaste a amar la ciencia y cómo te diste cuenta de que necesitaba protección.

John Ioannidis (JI): Creo que la ciencia es un esfuerzo humano muy vulnerable y sensible. Tuve experiencias tempranas con científicos, incluidos científicos en mi propia familia. Vi cómo trabajaban: lo difícil que es llevar a cabo una buena ciencia e investigación, cuántos obstáculos existen para hacer las cosas bien y cuántos cálculos son difíciles o defectuosos. Todo eso era intrigante, emocionante y, al mismo tiempo, esencial para intentar hacerlo mejor.

La ciencia no es perfecta. Es algo que está en una lucha continua por mejorar. Me atrajo muy pronto, aprendiendo de mis propios errores y luchas por hacer buena ciencia, viendo lo fácil que es estar sesgado y cometer errores.

AD: Probablemente te han preguntado sobre tu artículo de 2005 miles de veces, así que lo haré breve. Ese artículo ha sido visto más de 3 millones de veces. Cuéntanos un poco sobre lo que encontraste que te llevó a determinar que la mayoría de los hallazgos de investigación médica son falsos.

JI: Ese artículo intentó estimar la probabilidad de que un hallazgo de investigación que supera un cierto umbral de detección (típicamente un cierto nivel de significación estadística en la mayor parte de la investigación biomédica) refleje un hallazgo verdadero, en lugar de uno espurio. Intenta modelar diferentes características, empezando por qué tan bueno es el poder del estudio, los sesgos, y el hecho de que la ciencia es llevada a cabo por múltiples científicos con distintos objetivos.

Nos ayuda a calcular cuáles son las probabilidades de que una afirmación de un resultado significativo sea correcta, en diferentes circunstancias, en diferentes campos, en diferentes fases del desarrollo de una disciplina, y con diferentes factores, incluidos sesgos, presiones de patrocinadores, conflictos y otros poderes desestabilizadores que pueden operar alrededor de la ciencia.

En la mayoría de los contextos, resulta que lo que obtenemos es poco probable que sea correcto. La probabilidad de que no lo sea es mayor del 50%. Por supuesto, eso varía. Si tenemos un ensayo aleatorizado muy grande en fase avanzada y obtenemos un resultado significativo, la probabilidad de que sea correcto es mucho más del 50%. Pero en la gran mayoría de las iniciativas científicas, tanto en 2005 como en 2025, la probabilidad es menor del 50%, y en muchos casos, es mucho menor del 50%.

AD: Ese artículo se volvió realmente famoso. ¿Te enfrentaste a reacciones negativas por escribir algo que decía: “Atención, muchos de estos hallazgos de investigación médica podrían ser falsos”? Lo pregunto porque pienso en el trabajo de Carl Elliott sobre los que denuncian irregularidades en la medicina y cómo se les trata.

JI: Por supuesto, hubo reacciones, y eso es muy apropiado y científico. La ciencia depende de la retroalimentación crítica, del debate, del escepticismo saludable y organizado. Hubo una variedad de críticas, algunas muy superficiales y otras profundas, interesantes y constructivas. Creo que el trabajo en este campo ha evolucionado desde entonces y se ha vuelto más rico, profundo, interesante y quizás también más preciso.

Evité los ataques que pueden recibir los denunciantes de irregularidades cuando intentan revelar que un solo artículo o un solo científico es fraudulento. El artículo de 2005 no trataba de la manipulación o de los resultados fraudulentos de un único científico o un único artículo. Trataba del conjunto de la empresa científica, y paradójicamente, la gente está más dispuesta a escuchar que “millones de artículos pueden estar equivocados” en lugar de que “mi artículo está equivocado”. Cuando se vuelve personal, la gente tiende a reaccionar de manera muy negativa y emocional.

Cuando describes problemas a gran escala, la gente es más tolerante porque piensa: “Bueno, ¿no te estarás refiriendo a mi propio trabajo, verdad?”. En realidad, el artículo habla del trabajo de todos nosotros. No hace excepciones. Muestra que cualquiera, en muchas circunstancias diferentes, podría sucumbir a esos sesgos que configuran la literatura científica problemática.

AD: La conclusión general de tu trabajo sobre los sesgos parece mostrar que hay sesgo en cada paso, en cada nivel de la investigación. Tomemos mi disciplina, la Psicología. Tú escribiste que puede haber sesgo en la observación, y en Psicología eso suele ser cierto, ya que hay mucha subjetividad en qué se observa y cómo. Puede haber sesgo en la medición: tomamos cosas complejas como el duelo y las reducimos a números. Hay problemas con la clasificación: las clasificaciones del DSM están constantemente bajo escrutinio. Hay sesgo en el análisis: los investigadores ejecutan múltiples análisis hasta encontrar lo que quieren (“¡Ya tengo significación!”). Hay sesgo en la difusión de la investigación, un tema sobre el que ha escrito Erik Turner, particularmente en relación con los antidepresivos y el problema del sesgo de publicación.

Escribes que la neuroimagen y la ciencia cognitiva están especialmente plagadas de esto, y estoy de acuerdo. Cada dos días aparece un nuevo estudio que “encuentra” el TDAH en el cerebro, y la gente lo toma en serio, pensando que las imágenes cerebrales significan evidencia dura.

¿Podrías describir los sesgos específicamente presentes en la literatura de neurociencia cognitiva y psicología?

JI: Existen literalmente cientos de sesgos. Publiqué otro artículo con David Chavalarias sobre un catálogo de sesgos utilizando una extracción de información textual a partir de toda la base de datos PubMed. Por supuesto, eso ni siquiera fue un catálogo completo, porque algunos sesgos pueden no estar nombrados como “sesgo X”, pero encontramos varios cientos diferentes. Una parte significativa de esos sesgos fue identificada primero en las ciencias psicológicas o sociales y luego fue aplicada en otros campos, incluida la biomedicina.

La psicología y las ciencias cognitivas no son necesariamente peores que otros campos. No solo han contribuido a la teoría del sesgo, ya que muchos sesgos fueron descritos por primera vez allí, sino que también fueron uno de los primeros campos en reconocer la necesidad de autoexaminarse. Comenzaron a realizar verificaciones de reproducibilidad a gran escala, y típicamente cerca de dos tercios de los experimentos no pudieron reproducirse.

Los campos con mediciones muy confusas y cuestionables tienden a hacerlo peor que aquellos más rígidos y específicos. Los campos con más presión de los patrocinadores o de otros interesados que desean un resultado particular también lo hacen peor. A veces basta con el sesgo de lealtad, cuando alguien ha construido su carrera sobre una observación o publicaciones específicas, y la defiende a toda costa.

También está la cuestión de la multiplicidad. ¿Es un campo donde solo se pueden hacer pocas preguntas, o es un campo donde se pueden hacer millones de preguntas? ¿Cuánta transparencia hay y qué medidas se están tomando para abordarlo? La ciencia psicológica, en principio, puede estar en un punto intermedio comparada con otros campos. No es tan mala. No es perfecta.

Probablemente hay mucho sesgo de lealtad. Creencias y discursos fuertes impregnan el campo, sobre las que la gente construye carreras y luego se aferra a ellas. Una cosa que quizá lo ponga en peor estado que otros campos es que los resultados y las mediciones pueden ser poco claras. Los estados mentales o psicológicos no son tan concretos como medir una proteína u otra entidad tangible.

Los estudios de neuroimagen son altamente complejos: cada pequeño vórtice y píxel puede contar, y hay tantos que intentas hacer inferencias a partir de ellos.

AD: Entonces, ¿qué campo está funcionando realmente mal en este sentido?

JI: Todos los campos. Probablemente la ciencia de la nutrición destacaría como muy deficiente en cuanto a estándares, métodos, transparencia, potencial de reproducibilidad y también en su disposición a corregirse, debido a: 1) lo difícil que es obtener resultados precisos, y 2) cuánto se hace para llegar ahí. Algunos campos pueden ser horribles, pero luego dar los pasos correctos y volverse fuertes.

La genética probablemente estaba entre los peores hace 20 años; casi nada correcto se publicaba en genética, excepto efectos monogenéticos muy fuertes. El campo dijo: “Ya basta. Hemos publicado 100.000 artículos que no llevan a ningún lado. Necesitamos prácticas de validación muy sólidas, mejores estadísticas, más transparencia y compartir datos”.

Entonces empezaron a obtener resultados reproducibles, pero de nuevo, puede que no sean útiles en la práctica. Esto aplica aún más para la salud mental y para los resultados y fenotipos psicológicos. La genética es increíblemente compleja. Incluso si algunas señales ahora son más reproducibles, no estoy seguro de que puedan usarse para cambiar resultados en pacientes o en personas que quieren modular sus comportamientos.

AD: Hace veinte años la genética estaba en problemas, y han avanzado tratando de mejorar. Por ejemplo, existían relatos populares pero erróneos de que un solo gen causaba la esquizofrenia o el trastorno bipolar. Incluso ahora, esos relatos persisten aunque sean falsos. Una vez que entran en el mundo, son difíciles de erradicar. Lo mismo con la depresión: en la cultura popular sigue viéndose como causada por la serotonina. No importa cuánto haya cambiado la cosa; en la práctica no ha cambiado nada.

Parece que cuando un relato es realmente simple, como “es tu biología, es solo un gen”, se difunde como pólvora. Pero los relatos complejos nunca se vuelven masivos. No llegan a la portada de la revista TIME

JI: Tienes toda la razón. Hay una ventaja competitiva para los relatos simplificados. La hipótesis de la serotonina es una teoría en gran medida desacreditada, pero persiste porque ofrece una explicación conveniente de qué está mal contigo y qué podemos hacer al respecto. Pero obviamente las cosas no funcionan de manera tan simple, especialmente para los fenotipos psicológicos y la salud mental.

Sin embargo, los relatos simples tienen una ventaja competitiva para periodistas, autores de bestsellers, organizaciones y muchos interesados que quieren decir: “Sé lo que está mal en ti y tengo una solución fácil”. Para la salud mental, eso no es el caso, con muy, muy raras excepciones.

AD: ¿Puedes hablar de algún estudio o algo que recuerdes como uno de los ejemplos más flagrantes de sesgo?

JI: El estudio promedio que leo cada día. No quiero señalar a nadie porque ya lo hice en otro artículo. El sesgo del que hablábamos era un sesgo en un método que detecta sesgo. Estábamos listos para publicarlo, ya que miles de estudios lo habían hecho antes y habían exagerado lo que podían lograr con este método de detección de sesgo. El editor dijo: “Publicaremos el artículo. Pero dices que revisaste miles de estudios. Por favor, incluye un ejemplo de un único estudio que lo ejemplifique”.

No queríamos señalar a nadie, pero el editor insistió. Incluimos ese ejemplo, y unos meses después conocí al primer autor de ese estudio en particular. Obviamente, estaba enojado porque había sido señalado como el del estudio horrible, mientras que los otros decenas de miles de científicos que hicieron lo mismo no lo habían sido.

Me lo preguntan muchas veces: ¿Cuál es el peor estudio? No, simplemente hay millones de estudios. Es tentador decir: “Este es el más horrible”, y quizás quienes trabajan en el campo sientan aún más intensamente la ira y el dolor cuando encuentran un estudio pésimo. Pero deberíamos ir más allá, porque literalmente hay decenas de millones de estudios con problemas graves.

AD: Hay una rabia asociada al encontrarse con ciencia realmente defectuosa. Pero hay tantos de esos estudios. Si lo enfocamos como un problema sistémico, quizá pueda haber respuestas sistémicas al problema, distintas de las respuestas de rabia.

JI: Estoy muy a favor de respuestas sistémicas. Las respuestas de rabia tienen su valor en cuanto a sensibilizar a la gente y aumentar la conciencia. Pero pueden llevar a la mala conclusión de que los estafadores producen ciencia, de que la ciencia es una causa perdida o de que no debemos confiar en ella.

Los problemas van desde cuestiones comunes de las que los científicos no son conscientes y en donde caen por falta de conocimiento y preparación metodológica inadecuada, hasta el fraude completo. Hoy en día tenemos una producción masiva de artículos fraudulentos. En el pasado, crear un artículo fraudulento era una obra de arte: tomaba tiempo y esfuerzo. Ahora puedes tener IA generando literalmente millones de artículos fraudulentos en una noche.

AD: Cuando enseño sobre el sesgo y corrupción de la industria en mis clases, mis estudiantes a veces se sienten desanimados y preguntan: “¿Cómo distinguir entre buena y mala investigación? Parece que necesitaríamos una formación extensa en estadística”. Yo me quedo titubeando, así que quiero preguntarte: dado que consumimos tanta investigación médica, ¿Cuáles son algunas señales de alerta que la gente puede identificar?

JI: No hay una lista de verificación sencilla. Eso aplica tanto al ciudadano promedio, bombardeado de información, como al experto. Algunos aspectos probablemente aumenten o disminuyan la credibilidad de un trabajo.

Un estudio experimental, aleatorizado, tiene más probabilidades de arrojar resultados precisos que un estudio observacional. Los estudios grandes pueden ser más confiables que los pequeños, no porque un único estudio pequeño no pueda ser bueno, sino porque muchos estudios pequeños pueden ser defectuosos y desaparecer.

¿Quién financia el estudio? ¿Hay un posible conflicto? ¿El patrocinador quiere obtener un resultado específico? ¿Será la intervención estudiada un producto superventas con el que el patrocinador ganará miles de millones? Ahora bien, incluso si fuera así el resultado del estudio podría ser correcto, pero son casos en que hay que ejercer un mayor nivel de escepticismo.

¿Cuánta transparencia hay? ¿El estudio fue prerregistrado para que se supiera que estaba en marcha? ¿Se conocía con detalle cómo se iba a realizar, cuales fueron los desenlaces que se iban a estudiar, cual el diseño y los análisis? ¿Los investigadores siguieron lo que prometieron o se desviaron? ¿Qué tan concretos parecen los números? ¿Parecen surgir de muchos análisis, pero de los cuales solo se informaron unos pocos?

No es fácil. Para el ciudadano promedio y para el experto, es un problema significativo. ¿Hasta qué punto podemos enseñar a la gente a aprender más sobre esos métodos? Aquí reconozco mi sesgo: creo que deberíamos hacer un esfuerzo por enseñar más desde etapas tempranas. Dar más énfasis a la educación científica, porque pienso que es central para la civilización, el bienestar y el futuro humano.

AD: Esto nos lleva a la formación. Me horrorizó aprender en tus escritos que incluso expertos en un campo suelen recibir una formación inadecuada en estadística. Dijiste que los médicos tienen una formación rigurosa en medicina, pero a menudo muy pobre en investigación, y especialmente en estadística.

Has escrito repetidamente que hay una analfabetización estadística rampante entre investigadores. La significación estadística es un concepto básico de licenciatura, y ya hay debates sobre si siquiera deberíamos seguir tomándola en cuenta, dado que puede no ser clínicamente relevante. Hay llamados a elevar el valor p (NdeT: la significación estadística estándar para considerar relevante el resultado de un análisis), o incluso a acabar con este enfoque. Pero tú argumentaste que debemos conservarlo porque los científicos suelen equivocarse incluso con este método básico. Dado este panorama ¿cómo podemos incorporar métodos más avanzados?

JI: Es un gran desafío, y la estadística impregna la gran mayoría de la investigación hoy en día. En principio, eso es bueno.

La estadística es una ciencia madura. Tiene herramientas muy sólidas y puede mejorar la calidad del trabajo. Pero publicamos siete millones de artículos al año, y solo una pequeña minoría tiene a un estadístico o metodólogo experto en el equipo. Los demás dependen del conocimiento estadístico de los autores, y muy a menudo ese conocimiento es rudimentario; no saben bien qué herramientas están usando.

Cualquiera puede conseguir un software estadístico que ejecute análisis extremadamente sofisticados, y con la inteligencia artificial es aún más fácil realizar análisis que no solo son complicados sino a veces poco transparentes. Tenemos herramientas poderosas y mucha gente que no está entrenada para usarlas; es muy fácil usarlas mal.

Luego está la revisión por pares, que debería detectar errores, pero la mayoría de los revisores tampoco está entrenada en estos aspectos, así que gran parte de lo incorrecto probablemente pasará. La revisión pospublicación puede identificar algunos de estos problemas, pero también es limitada, y aun cuando se realiza, no impacta el artículo: la mayoría de las revistas rara vez retracta o corrige.

Necesitamos enseñar a los investigadores a ser más cuidadosos con la estadística. Por favor, no uses algo a menos que sepas cómo funciona, cuáles son sus supuestos, qué significa, cómo funciona y cómo falla.

Es muy tentador hacerlo, especialmente con los LLMs (Modelos de Lenguaje a Gran Escala). Un LLM puede generar análisis impresionantes para quienes tienen poca experiencia, y casi siempre estarán completamente equivocados porque la forma en que fueron solicitados no era apropiada. Lo he visto una y otra vez.

No debemos presionar a la gente para que publique artículos por razones que no tienen nada que ver con la ciencia y con ayudar a las personas, sino por cosas como “Necesito graduarme, por lo tanto debo publicar X artículos”, o peor aún, “Soy un residente médico cuidando pacientes, lo cual es una ocupación muy respetable, y al mismo tiempo debo publicar artículos para terminar mi residencia”. ¿Por qué? No hay absolutamente ninguna razón.

Forzamos a la gente a hacer cosas para las que no está preparada, y no deberíamos culparlos si las hacen mal.

AD: Una de las cosas que me llama la atención de tu trabajo es que incluso después de identificar y escribir tanto sobre todos estos problemas en la investigación, aún pareces optimista acerca de lo que la ciencia puede lograr. ¿De dónde viene ese optimismo?

JI: A menudo me siento frustrado, pero al mismo tiempo hay motivos para el optimismo. La ciencia ha ayudado a la humanidad a lo largo del tiempo. No ha sido un progreso lineal. Ha habido épocas oscuras y períodos de ilustración, períodos de estancamiento y, en otras ocasiones, hemos experimentado periodos de innovación. Algunos campos pueden estancarse, publicando miles de artículos que no aportan nada, mientras que otros pueden ser más innovadores.

Si pensamos en los cincuenta millones de personas que han contribuido a la publicación de trabajos científicos, se trata de una enorme contribución de talento, esfuerzo, tiempo, recursos y capacidad. Si pensamos en doscientos millones de artículos, aunque solo una pequeña parte de ellos sea fiable, se trata de un logro importante.

Podríamos hacer cosas para reducir los artículos que son malos, horribles e inútiles. Pero todavía se difunden muchos trabajos muy interesantes, muy valiosos, útiles, fiables, reproducibles y dignos de confianza.

El reto es cómo separar esos trabajos del resto. Tenemos algunas herramientas, pero es una lucha. Requiere tiempo y esfuerzo. Habrá algunos avances y algunos retrocesos, y de nuevo más avances. No puedo predecir lo que sucederá en el futuro. Quién sabe, tal vez la humanidad se extinga. Pero quiero mantener una perspectiva optimista como una posibilidad importante.

AD: Sé que además de la ciencia, también te apasionan las artes y las humanidades. ¿Te ayudan a mantener la esperanza?

JI: Los seres humanos son seres fascinantes, y es importante hacer todo lo posible para mantener la dignidad de la humanidad.

Tengo amigos que creen firmemente en la ciencia y la tecnología, y comparto su convicción. Pero creo que los seres humanos son seres multifacéticos y muy complejos, por lo que también necesitamos el arte, la filosofía, necesitamos muchas formas diferentes en las que los seres humanos puedan navegar por su experiencia en el mundo, lo que significa, lo que importa, lo que es importante, lo que puede marcar la diferencia para ellos, para los demás, para las personas que aman y para la comunidad en la que viven.

La ciencia es indispensable, pero no es lo único. Tenemos que fijarnos en todas las demás armas que tenemos y que nos pueden dar la oportunidad de pensar que los seres humanos valen la pena. Como especie, valemos la pena.

AD: Quiero llevar esta conversación a la salud mental y a los antidepresivos. Usted abordó directamente esta cuestión, escribiendo que, durante mucho tiempo, múltiples ensayos clínicos han demostrado que los antidepresivos son eficaces y seguros. Y entonces llegaron dos metaanálisis y reventaron esa burbuja.

Hoy en día, existe un debate amplio en torno a la retirada de los tratamientos con antidepresivos. Ahora sabemos que no es autolimitada, en el sentido de que desaparecerá para todo el mundo en seis semanas, sino que puede durar hasta un año o más. El NICE del Reino Unido cambió sus directrices sobre la retirada de los antidepresivos. Tuvimos una importante revisión general que desacreditó la teoría de la serotonina.

¿Cuáles fueron los problemas de esos primeros ensayos que habían obtenido resultados sorprendentes? Son medicamentos increíblemente populares, aunque he oído rumores de que la industria farmacéutica se está alejando de los psicofármacos.

JI: El problema es que la investigación sobre los antidepresivos, y esto también es válido para otros fármacos y otras intervenciones de salud mental, suele consistir en estudios pequeños de corta duración que estudian desenlaces que no son desenlaces duros. En su mayoría ofrecen los resultados del cambio en algunas escalas para algunos síntomas. Es posible que no reflejen resultados concretos como el suicidio, los intentos de suicidio, la pérdida del empleo, incidentes matrimoniales importantes o la violencia. Eso no es fácil de estudiar.

Para su estudio se emplean muestras de 100 personas a las que se sigue durante ocho semanas o un poco más. Se necesitan estudios a largo plazo con muestras muy grandes. Hay muchos metaanálisis de este tipo de estudios, y yo mismo he realizado algunos.

En promedio, los antidepresivos probablemente ofrecen ciertos beneficios. Es un beneficio muy sutil para la persona promedio. En el metaanálisis más amplio del que fui coautor, observamos una diferencia media estandarizada de aproximadamente 0,3, lo que supone un efecto relativamente pequeño y modesto.

Ahora bien, si se asume la presencia de otros sesgos, ese 0,3 se convierte en un 0,2 o un 0,15. Algunas personas pueden responder que la media no representa la experiencia individual. Muchas personas no obtendrán ningún beneficio, mientras que otras pueden responder mejor y experimentar una mejora significativa.

Las personas también pueden probar diferentes psicoterapias. Estas tienen el mismo tipo de efectos y los mismos problemas, porque también son estudios pequeños de corta duración y con sesgos de lealtad, del mismo modo que tenemos sesgos de patrocinio en los ensayos de medicamentos. Pero vale la pena intentarlo.

El problema es que estos medicamentos no solo los usan personas con síntomas graves. También los usan mucho personas con pocos o ningún síntoma. Claro, no hay ningún beneficio, solo daños.

Incluso con niveles bajos de efectos nocivos, que no creo que sean tan bajos, pero supongamos que lo son, si hay cientos de millones de personas que toman estos medicamentos, entonces hay que multiplicar eso, y el beneficio neto para la población en general es negativo. Estos medicamentos terminan causando más problemas de los que podrían ayudar a algunas personas.

Lo mismo se aplica a los síntomas de abstinencia. Algunas personas tendrán síntomas de abstinencia. Desgraciadamente, tanto en lo que respecta a los beneficios como a la abstinencia, no disponemos de marcadores que nos permitan predecir quién va a responder bien y quién no, o incluso quién va a sufrir daños.

Hemos empezado a obtener cierta información sobre los daños, pero no es suficiente. En cuanto a los beneficios, tenemos muy poca información. La gente simplemente comprueba cómo funciona, e incluso eso se complica por la subjetividad, incluidos numerosos efectos placebo y nocebo, así como la presión circunstancial y la experiencia individual.

Son medicamentos que han sido muy buenos para la industria, la cual ha ganado miles de millones de dólares. Incluso con un precio relativamente modesto, si hay cientos de millones de personas que los toman, se pueden obtener grandes beneficios.

Creo que esto significa que la literatura también se ve influida por la presión de los patrocinadores, lo que da lugar a la creación de expertos que los promocionan, y las organizaciones, reuniones y revistas se ven presionadas para publicar más material positivo sobre ellos.

Como usted dice, aunque ha habido numerosos beneficios para las empresas, tal vez se estén retirando porque ven que están llegando a un callejón sin salida. Es una buena noticia, porque necesitamos nuevos tratamientos, nuevos conceptos.

AD: Me gustaría dedicar un momento a hablar de los daños. Existe un famoso estudio, el Estudio 329, realizado por GlaxoSmithKline (entonces SmithKline Beecham), en el que se afirmaba que dos antidepresivos (la paroxetina y un tricíclico) eran eficaces y seguros para los adolescentes. Sin embargo, los resultados reales demostraron que ambos eran ineficaces y peligrosos. Provocaban ideas y actos suicidas. Sé que ha escrito sobre cómo se minimiza la información sobre los daños y que se utiliza un lenguaje específico para este fin. Lo vi en el estudio 329: había frases como «La paroxetina fue bien tolerada», que es una frase muy vaga y una señal de alarma, como usted dice. Había una frase que decía que algunos adolescentes mostraban inestabilidad emocional en lugar de decir que eran propensos al suicidio.

¿Podría contarnos un poco sobre cómo se minimiza la información sobre los daños?

JI: Lo hemos documentado en diferentes disciplinas. No se trata solo de los antidepresivos, ni solo de la psiquiatría, sino que hemos observado que en casi todas las disciplinas médicas los daños se notifican de forma insuficiente, se subestiman y tampoco se comentan tanto como los beneficios.

En un artículo que publiqué en JAMA, calculé que el espacio dedicado a informar sobre los daños era menor que el dedicado a los nombres de los autores.

Creo que la situación ha mejorado un poco porque mucha gente ha destacado la importancia de ser más minucioso a la hora de documentar e informar sobre los daños. Sin embargo, sigue habiendo un desequilibrio significativo.

Los daños tienen que superar un alto umbral de resistencia para ser aceptados. Lo he experimentado con ensayos cuando estaba en los NIH. Incluso en ensayos que deberían ser independientes —los NIH no son una industria—, el fabricante industrial hacía todo lo posible por suprimir la información sobre los daños. Nosotros luchábamos diciendo: «No, esto está ocurriendo, está ahí». Ellos respondían: «No, no es tan importante, no pasa nada, observemos y no digamos nada».

Lo mismo ocurre con los antidepresivos. El estudio 329 es probablemente un ejemplo extremo, ya que el nuevo análisis arrojó una conclusión exactamente opuesta a la del análisis original. El análisis original sugería que estos antidepresivos son muy seguros y muy eficaces; el nuevo análisis demostró que no son eficaces y que no son seguros.

Fue una situación extrema que afectó al tratamiento de millones de personas, especialmente adolescentes. Los niños y adolescentes no son una población que deba exponerse a estos fármacos, a menos que se trate de una indicación muy, muy, muy especial, que sería una excepción poco frecuente, ya que tienen efectos nocivos.

Tenemos que mejorar en múltiples niveles: reforzar la supervisión de las agencias reguladoras, perfeccionar los requisitos que imponen las revistas para publicar un ensayo, mejorar los procesos de revisión que siguen los comités de ética para aceptar un ensayo para su publicación y, a continuación, garantizar que el ensayo se publique. Cuando la información no sea completa, solicitar la información restante. Se necesitará un trabajo estructural para garantizar que los patrocinadores no tengan un poder de veto para configurar el panorama de los daños y sus intervenciones. Creo que los patrocinadores deberían dejar de configurar el relato sobre los beneficios y los daños.

AD: Tienes esperanza y optimismo, y yo necesito un poco de eso. Cuando considero el alcance y la naturaleza sistémica del problema, pienso en casos como los de Joseph Biederman o incluso Faruk Abuzzahab, a quien en un momento dado le revocaron la licencia, pero más tarde la APA le concedió un premio por su trayectoria profesional. Cuando veo que se reprime, se margina y se aplasta a las personas que intentan hacer lo correcto, y que las instituciones premian a quienes han sido sorprendidos con las manos en la masa, me desanimo. Me alegra saber que tú no has perdido la esperanza.

JI: Muchas gracias por la oportunidad. Sí, no debemos perder la esperanza. Algunas personas malas llegarán muy alto, pero no por mucho tiempo.

John Ioannidis es doctor en medicina, doctor en ciencias, profesor de medicina y codirector del Centro de Innovación en Metainvestigación de Stanford.

Ayurdhi Dhar es entrevistadora para Mad in America y la fundadora de Mad in South Asia. También es profesora y escritora académica en la Universidad de West Georgia.

Texto original: MAD IN AMERICA, traducción: viento sur. 
Fuente: 

martes, 6 de octubre de 2015

El ‘cazador’ de plagiadores Heidingsfelder acabó con la carrera de políticos alemanes al descubrir que copiaron sus tesis

Martin Heidingsfelder es quizás el hombre más temido por los miembros de la familia política alemana que lucen con orgullo en sus tarjetas de visita la abreviación “Dr.”, que corresponde al título de doctor. A través de VroniPlag, la plataforma que creó en marzo de 2011 para investigar tesis copiadas o con ideas robadas, este cazador de plagios ha acabado con la carrera de varios políticos, y unos 30 médicos prominentes han tenido que renunciar a sus títulos.

Verónica Sass, una prestigiosa abogada e hija del político bávaro y excandidato a canciller, Edmund Stoiber, fue su primera víctima. Aunque existían serias denuncias sobre el trabajo de Sass, su condición de hija de Stoiber y la certeza de que el expolítico sigue siendo en Alemania una figura influyente en la CSU -el partido hermano de la CDU de la canciller Angela Merkel- la convirtieron en una doctora intocable, hasta que apareció en su vida Martin Heidingsfelder.

“Nadie quería investigar el plagio y tomé una decisión que cambió mi vida. Si nadie lo quiere hacer, lo hago yo mismo me dije. Ella tuvo que renunciar a su título y yo fundé VroniPlag”, dice ahora Heidingsfelder, que ha vuelto a ser el protagonista de un nuevo escándalo político, que le puede costar el cargo a la ministra de Defensa del país, Ursula von der Leyen.

Heidingsfelder descubrió que la ministra había robado ideas y copiado citas sin mencionar a sus autores en una tesis que la convirtió en 1991 en doctora en Medicina de la Universidad de Hannover. “Ella fue extremadamente floja y copió sin compasión”, afirma el cazador que inició su trabajo gracias a una denuncia anónima, pero también porque hubo gente que estaba dispuesta a pagar cifras de hasta cinco dígitos para descubrir el pecado cometido por la ministra. “Estoy completamente convencido de que ella renunciará, pero necesitamos el apoyo de la opinión pública, porque hay medios poderosos como Bild que la defienden”.

Martin Hedingsfelder dirige su plataforma desde Nürenberg y confiesa sin vergüenza que su afición se ha convertido en una profesión. Ahora sólo comienza a investigar un posible plagio si hay gente que está dispuesta a pagarle. “Ellos siempre me dicen: este señor oculta algo y quiero que se le investigue”, asegura.

Otro de los damnificados de Heidingsfelder ha sido el barón Karl-Theodor von Guttenberg, un político de la CSU que parecía estar predestinado a convertirse en el primer canciller de Alemania elegido por aclamación y que ocupó hasta marzo de 2011 el cargo de Ministro de Defensa. En febrero de ese año, un académico descubrió por casualidad que el barón había cometido plagio en su tesis y se lo contó al periódico Süddeutsche Zeitung. Cuando el artículo del periódico vio la luz, Heidingsfelder creó la plataforma GuttenPlag-Wiki y descubrió que el político prácticamente había escrito su tesis gracias a trabajos ajenos sin citar las fuentes. El ministro renunció el 1 de marzo de ese año y desde entonces vive exiliado en Estados Unidos.

“Von Guttenberg ni siquiera tenía las notas necesarias para poder iniciar la promoción pero obtuvo el título gracias a una importante donación que recibió la universidad. Huele un poco a corrupción”, recuerda el cazador. “También hubo otros dos escándalos de plagio en el verano de 2013. Descubrí que Franz-Walter Steinmeier, actual ministro de Asuntos Exteriores, y Norbert Lammert, el presidente del Bundestag, habían cometido plagio en sus respectivas tesis. Pero lo descubrí en una época poco apropiada. Cuando divulgué el plagio, los partidos estaban inmersos en la negociación para formar el gobierno de gran coalición y a nadie le interesaba que dos importantes personalidades políticas se vieran envueltas en un escándalo de plagio”.

Según Heidingsfelder, las universidades se negaron a investigar las denuncias por presiones políticas, pero admite que en el caso de la ex ministra de Educación, Annette Schavan, la universidad de Düsseldorf tuvo el valor de retirarle el título de doctora en Filosofía gracias a sus investigaciones.

“Necesitamos políticos y científicos honestos en Alemania”, dice Heidingsfelder, en un intento de justificar su trabajo. Asegura que ya tiene en sus manos la tesis de Merkel, que en 1986 se doctoró en Química Cuántica. “Mucha gente quiere que investigue el trabajo de la canciller, pero es un trabajo muy difícil. Si recibo dinero suficiente lo haré”, afirma.

Martin Heidingsfelder recibe, desde que fundó VroniPlag, amenazas e insultos cuando abre su correo electrónico, pero admite que ya dejaron de preocuparle: “No necesito protección de la policía, porque me siento suficientemente protegido por la opinión pública y por el mundo intelectual y científico de mi país”.
http://internacional.elpais.com/internacional/2015/09/30/actualidad/1443623591_708715.html

MÁS INFORMACIÓN

sábado, 26 de septiembre de 2015

El cerebro del doctor House. La médica Lisa Sanders proporcionó a la serie televisiva los complicados diagnósticos de los pacientes

Este año, 80.000 enfermos van a morir en hospitales norteamericanos por mal diagnóstico. Lisa Sanders no ha fallado ni uno, o quizás sí, pero no tardará en rectificar más de 45 minutos, lo que dura un capítulo de House. La doctora Sanders está detrás de los complicados casos de la teleserie.

“Profesionalmente, no puedo defender el comportamiento del doctor House”, comenta divertida Sanders, que asistió la pasada semana en Lisboa a la iMed Conference. “El personaje es impresentable desde cualquier punto de vista, aunque tiene una virtud, de repente hace clic y dice: ‘¡Alto! No vamos bien. Estamos equivocados”.

La doctora fue premiada con un Emmy televisivo, pero no por su contribución a la exitosa serie, sino por su trabajo en CBS News. Antes que médica, fue periodista. A los 41 años ingresó en la Facultad de Medicina de Yale y allí, cuando se enfrentó al primer caso práctico, descubrió lo que quería ser en la vida: especialista en diagnosis.

“Tres son las reglas de oro para un buen diagnóstico”, explica después de su intervención ante casi un millar de futuros médicos. “Primero, el clic, el algo no encaja en todo esto, lo bueno de House; segundo, el conocimiento, y tercero, la experiencia, la conexión de ese conocimiento con el paciente”.

En 2002 comenzó a escribir en The New York Times una columna sobre su especialidad y mantiene el blog The Well en el mismo periódico. Los casos planteados llamaron la atención del productor Paul Attanasio, que le propuso trabajar en la asesoría técnica de una serie sobre un médico antipático, cojo, borrachín, drogata y que, además, odiaba a sus pacientes. “Ya con el programa piloto vi que sería un éxito”.

Si Anatomía de Grey se centra en los ligues del personal y The Knick recrea la sanidad de principios del siglo XX, la serie House (2004-20012) entra en el corazón de la profesión, la dificultad de acertar con el diagnóstico. Pese a lo que pudiera creerse, las dramáticas situaciones no eran producto de enfermedades raras, sino de casos complicados, a veces por los mismos profesionales. “En la actualidad hay un 15% de fallos en el primer diagnóstico que damos al enfermo”, recuerda el cerebro de House, hoy profesora de Medicina en la Facultad de Yale y autora de libros como Diagnóstico (Debolsillo, 2010). La doctora tiene sentimientos encontrados sobre la teleserie. “A los profesionales les gusta, pero no sé si la recomendaría a los estudiantes de Medicina”.

Los síntomas, efectos secundarios y complicaciones de la serie son fruto del trabajo de Sanders, que expuso a sus alumnos y a los asistentes al congreso médico un caso real con 30 cuestiones y 150 posibilidades. Tiempo, cinco minutos.

La norteamericana no cree que el futuro de la medicina pase por robots conversando con los enfermos. “El robot es bueno en el análisis de lo que está mal, pero nunca va a detectar si el enfermo miente, si exagera o si tiene un problema en la familia. Eso solo lo puede descubrir un humano hablando con otro humano”.

Pero parece que lo difícil y caro es conseguir hablar con un médico, y lo barato que te hagan un análisis. “Es cierto que hay un abuso de ordenar, por principio, todo tipo de pruebas. Se ve en House también. Es ridículo; pero no estoy de acuerdo con lo de la accesibilidad del médico. No hay profesional más generoso con su tiempo que el médico, lo que pasa es que su tiempo es precioso porque lo va a dedicar a los siguientes enfermos”.

En ausencia de la genialidad de House, los estudiantes no aciertan con el caso planteado. De 30 cuestiones, las ganadoras aciertan 19. “Se trataba de porfiria, una enfermedad con un amplio espectro de síntomas comunes”, señala Sanders. “El paciente pasó 12 veces por urgencias antes de que se acertara con el diagnóstico”.

http://cultura.elpais.com/cultura/2015/09/24/television/1443092238_786679.html

MÁS INFORMACIÓN