Sesgos cognitivos de terapeutas basados en las evidencias

0

Hace unos días publiqué una nota sobre los sesgos cognitivos de las personas en general. Ahora les presento los sesgos que potencialmente podrían tener los terapeutas que, como yo, nos embanderamos en las prácticas psicológicas basadas en las evidencias científicas (Evidence-Based Practice in Psychology o “EBPP” en inglés). La EBPP contempla la triangulación de 3 fuentes de información en la toma de decisiones profesionales:

  • Las últimas evidencias científicas sobre distintos abordajes psicológicos en general, sobre abordajes específicos para la problemática/desafío del consultante, y sobre hallazgos en ciencias básicas, por ejemplo, sobre memoria, aprendizaje, etc.
  • La propia experticia del terapeuta, conformada por su experiencia profesional con cada consultante, y la información proveniente del consenso entre sus pares respecto a lo que funciona en cada forma de práctica psicológica, en un contexto dado.

Interactuando con otros colegas y observando mis propios procesos internos como terapeuta, he descubierto una serie de sesgos cognitivos, tanto en mí como en los demás, que, más de una vez, nos llevan a arribar a conclusiones o dar opiniones que, contrario a nuestro posicionamiento, no se basan en evidencias científicas. Por supuesto, no cuento con evidencias que me permitan generalizar estos sesgos a toda la población mundial de terapeutas y coaches basados en las evidencias; sin embargo, mi intuición me lleva a pensar que no estamos solos en estos modos reactivos. Ustedes, los lectores, dirán…

Un primer sesgo suele surgir cuando atiendo a un nuevo consultante y refiere insatisfacción con su tratamiento/coaching anterior. Mi sesgo automático en esta situación es el siguiente:

  • Si el terapeuta tratante o coach ofreció una forma de terapia que no esté basada en las evidencias o posea evidencias menos robustas que la mía (por ejemplo, coaching ontológico, psicoanálisis de alta frecuencia, terapia gestáltica, o cualquier otro abordaje con menor tradición de investigación como las Terapias Cognitivo-Conductuales), automáticamente aparece en mi mente, la interpretación, “¡Viste que ese abordaje no sirve!”.
  • En cambio, si el terapeuta tratante ofreció mi misma forma de terapia (algún tipo de Terapia Cognitiva-Conductual), entonces se me dispara el pensamiento, “¡Ah, seguro que implementó mal la terapia!”.
  • Primero, mi única fuente de información es el relato del consultante, con lo cual no tengo forma de evaluar si el mismo refleja en forma confiable lo transcurrido durante el abordaje anterior, o si se sustenta en interpretaciones idiosincráticas del consultante, muy distantes de lo que describiría un observador externo y/o el terapeuta tratante.
  • En segundo lugar, no tengo forma alguna de evaluar fehacientemente la competencia del terapeuta tratante (salvo que se trate de desviaciones groseras de lo esperable).
  • En tercer lugar, ninguna forma de terapia es 100% efectiva, con lo cual, muchas veces, incluso los abordajes más eficaces, implementados a la perfección, no logran los resultados buscados.

Un segundo sesgo sucedió las veces que concluí que la terapia no estaba dando sus frutos porque el consultante no se dejaba ayudar o porque no se comprometía con el tratamiento. Este sesgo ha sido rebatido por Linehan (1993) cuando explicó -en el contexto de la Terapia Dialéctica-Conductual- que el paciente nunca falla, sino el terapeuta o la terapia. También los desarrolladores de la Entrevista Motivacional (Rollnick y Miller, 1995) han reestructurado este sesgo, evidenciando que las personas siempre tienen muy buenas razones para no cambiar, las cuales requieren ser explicitadas y abordadas previamente para posibilitar el cambio. Gracias a estos clínicos-investigadores cambió radicalmente mi forma de ver la clínica. Aunque de tanto en tanto, debo releerlos para volver a desactivar a este sesgo.

Un tercer sesgo cognitivo, que sostuve un buen tiempo, fue pensar que los abordajes que no contaban con evidencias empíricas respecto a su grado de eficacia, eran menos eficaces o, directamente, ineficaces. Lo cierto es que es necesario tener especial cautela al desaconsejar abordajes sin evidencias empíricas, porque con esa acción le estamos cortando el acceso a los consultantes a otros abordajes que potencialmente podrían resultar eficaces, si se investigara al respecto. Esto se explica por la popular frase, “la ausencia de evidencias no es evidencia de ausencia”. Es decir, para poder afirmar que un abordaje es ineficaz, o iatrogénico (que hace daño), un terapeuta basado en las evidencias también debe basar esa afirmación en evidencias de esos efectos. De lo contrario, estamos disfrazando opiniones personales como si se tratara de afirmaciones basadas en evidencias.

Muchas veces, desaconsejamos prácticas psicológicas –infundadamente-, sustentándonos en reportes de casos aislados de efectos adversos. Sin embargo, ello no constituye evidencia rigurosa de ineficacia. Un ejemplo impecable de reporte de tratamientos iatrogénicos basado en evidencias es el artículo de Lilienfeld (2007) sobre tratamientos psicológicos que causan daño. La mismísima Presidential Task Force de la American Psychological Association ([APA], 2006, p. 274) se encargó de rebatir este sesgo hacia los tratamientos sin evidencias empíricas, explicando que, al considerar “Intervenciones específicas para problemas específicos que no han sido sujetas evaluación empírica sistemática, no puede asumirse que sean eficaces o ineficaces; simplemente no han sido evaluadas a la fecha”.

Algunos terapeutas objetan que no priorizar a un abordaje basado en evidencias por sobre aquéllos carentes de ellas, podría generarle un costo de oportunidad –y daño potencial- al consultante, por perder tiempo probando un tratamiento “inefectivo”. Sin embargo, vuelvo a insistir en recordarles que la ausencia de evidencias y los reportes aislados negativos, no constituyen evidencia rigurosa de ineficacia ni de iatrogenia. Las personas que elijan esos abordajes estarán accediendo a prácticas psicológicas sin evidencias científicas, y es importante que reciban esa información y que se desaconseje optar por éstos como primera opción, ya que se desconoce su grado de eficacia. No obstante, eso es todo lo que podremos decirles si queremos que nuestro consejo esté basado en evidencias científicas y no, en sesgos personales. Esta posición no es neutral ni condonante de abordajes inciertos, sino científicamente coherente. Además, la práctica psicológica basada en las evidencias exige que se consideren las preferencias de los consultantes en la toma de decisiones sobre los procedimientos a implementar (APA, 2006) y, tal como señala el meta-análisis de Swift y Callahan (2009), esto modera la continuidad y el resultado de los tratamientos. Por esta razón, negándoles a los consultantes la posibilidad de que elijan la práctica psicológica que prefieren recibir, efectivamente les estamos generando un daño y haciéndolos pagar el costo de oportunidad de no poder acceder directamente al abordaje de su preferencia.

Por último, notarán que hablo de prácticas psicológicas basadas en “las evidencias” y no, en su singular (“la evidencia”). Ello se debe a que el singular connota un monismo metodológico o gold standard metodológico por el cual, la EBPP ya no pregona. Es decir, desde el monismo metodológico se consideraba a los diseños experimentales como investigaciones “serias”, y a los demás diseños metodológicos como inferiores o poco serios. Sin embargo, ello no se condice con la definición de “mejor evidencia de investigación” propuesta por el informe de la Presidential Task Force de la APA (2006, p. 274), que dio nacimiento a la EBPP:

Mejor evidencia de investigación se refiere a resultados científicos relacionados con estrategias de intervención, evaluación, problemas clínicos, y poblaciones clínicas en contextos de laboratorio y de campo, así como a resultados clínicamente relevantes de investigación básica en psicología y campos relacionados. La APA aprueba múltiples tipos de evidencia de investigación (ej., eficacia, efectividad, costo-efectividad, costo-beneficio, epidemiológica, tratamiento utilizado) que contribuyen a la práctica psicológica efectiva. Múltiples diseños de investigación contribuyen a la práctica basada en las evidencias, y diferentes diseños de investigación son más aptos para responder a distintos tipos de preguntas.

Para desincentivar estos sesgos personales y promover el intercambio científico y respetuoso, basado en los criterios de la EBPP, los clínicos, coaches e investigadores asociados al equipo de investigación en psicología clínica, dirigido por el Dr. Andrés J. Roussos (Juan Martín Gómez Penedo, Julieta Olivera, Malena Braun, Santiago Juan, Laura Challú, Vanina Waizmann, Ludmila Jurkowski, Viviana Guajardo y yo, Ignacio Etchebarne), hemos armado el grupo de Facebook titulado “Prácticas psicológicas basadas en las evidencias (EBPP)”.

Nuestra visión es formar una gran comunidad virtual donde nos una el valor de la práctica basada en las evidencias y nos enriquezca la diversidad teórica de cada miembro. Si no lo han hecho ya, ¡los invito a sumarse!

Referencias

  • American Psychological Association (2006). Evidence-Based Practice in Psychology. American Psychologist, 61(4), 271–285.
  • Lilienfeld, S. O. (2007). Psychological Treatments That Cause Harm. Perspectives on Psychological Science, 2(1), 53-70. Disponible en:
  • Linehan, M. M. (1993). Cognitive-Behavioral Treatment of Borderline Personality Disorder. New york: The Guilford Press.
  • Rollnick, S., y Miller, W. R. (1995). What is Motivational Interviewing? Behavioural and Cognitive Psychotherapy, 23, 325-334.
  • Swift, J. K., y Callahan, J. L. (2009). The Impact of Client Treatment Preferences on Outcome: A Meta-Analysis. Journal of Clinical Psychology, 65(4), 368-381.

FUENTE: www.psyciencia.com

Comentarios están cerrados.