Reflexiones y posiciones alrededor de la evaluación de
Transcription
Reflexiones y posiciones alrededor de la evaluación de
Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Ligia de Salazar Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Salud pública y promoción de la salud 1 Ligia de Salazar 2 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Ligia de Salazar Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Salud pública y promoción de la salud Centro Colaborador de la OMS/OPS en Evaluación, Capacitación y Abogacía en Promoción de la Salud CEDETES Centro para el Desarrollo y Evaluación de Políticas y Tecnología en Salud Pública Escuela de Salud Pública - Facultad de Salud 3 Ligia de Salazar Malagón de Salazar, Ligia Reflexiones y posiciones alrededor de la evaluación de intervenciones Complejas / Ligia Malagón de Salazar. -- Santiago de Cali: Programa Editorial Universidad del Valle, 2011. 144 p; 24 cm. -- (Ciencias Naturales y Exactas). ISBN 978-958-670-885-2 1. Salud pública - Evaluación - Metodología. 2. Promoción de la salud. 3. Política de la salud - Evaluación. 4. Programas de salud - Evaluación I. Tít. II. Serie. 362.1 cd 21 ed. A1288942 CEP-Banco de la República-Biblioteca Luis Ángel Arango Universidad del Valle Programa Editorial Título: Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas. Salud pública y promoción de la salud. Autora: Ligia de Salazar, Ph.D ISBN: 978-958-670-885-2 Primera edición Rector de la Universidad del Valle: Directora Programa Editorial: Coordinación Editorial: Diseño carátula y diagramación: Fotografías: Impresión: Iván Enrique Ramos Calderón Doris Hinestroza Gutierrez Mónica Andrea Rojas Núñez Departamento de Arte y Diseño Impresora Feriva S.A. Archivo CEDETES Feriva S.A @ Universidad del Valle @ Ligia de Salazar Universidad del Valle Ciudad Universitaria, Meléndez A.A 025360 Cali, Colombia Teléfono: (+57) (2) 3212227 – Telefax: (+57) (+2) 3392470 Email: [email protected] Esta publicación corresponde a un producto de conocimiento del CEDETES-Universidad del Valle, en el marco de la línea de investigación Evaluación en Salud Pública. Orientada a desarrollar, implementar y validar metodologías de evaluación y producción de evidencias sobre efectividad y costo-efectividad de políticas, programas e intervenciones en salud pública. Centro para el Desarrollo y Evaluación de Políticas y Tecnología en Salud Pública, CEDETES. Escuela de Salud Pública, Facultad de Salud, Universidad del Valle. Calle 4B No 36-00 San Fernando edificio 118 [email protected] [email protected] www.cedetes.org Este libro o parte de él no puede ser reproducido por ningún medio sin autorización escrita de la Universidad del Valle. Cali, Colombia Abril de 2011 4 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Centro para el Desarrollo y Evaluación de Políticas y Tecnología en Salud Pública –CEDETES– Facultad de Salud – Escuela de Salud Pública Universidad del Valle Cali, Colombia CEDETES fue creado por la Universidad del Valle en 1997, adscrito a la Facultad de Salud , por su naturaleza y campo de trabajo, está articulado a la Escuela de Salud Pública. El centro se define como una unidad interdisciplinaria, transdisciplinaria e interinstitucional de investigación en el ámbito de la salud pública y la promoción de la salud, que busca articular la investigación evaluativa a la toma de decisiones y la práctica de la salud. La misión del centro es contribuir a la formulación y cualificación de políticas e intervenciones en salud pública y promoción de la salud,mediante investigación evaluativa, gestión de la información, desarrollo tecnológico y formación de recurso humano, con el fin de promover el bienestar y la calidad de vida de la población. Desde su creación, CEDETES trabaja en el desarrollo y consolidación de tres líneas de investigación: (1) Evaluación en salud pública y 5 Ligia de Salazar promoción de la salud, orientada a desarrollar, implementar y validar metodologías de evaluación y producción de evidencias sobre efectividad y costo-efectividad de políticas, programas e intervenciones en salud pública; (2) Información y vigilancia en salud pública, orientada a desarrollar, implementar y evaluar sistemas de vigilancia en salud pública, acordes con el contexto y estructuras territoriales, para hacerlos efectivos y viables. Profundiza en estrategias para incrementar el uso de la información en la toma de decisiones y formulación de políticas en salud pública; y (3) Gestión de políticas públicas, orientada a generar insumos para desarrollar procesos de formulación, implementación y evaluación de políticas públicas, y lineamientos de política, basados en las mejores evidencias disponibles, orientadas al logro de la equidad en salud. Como resultado de su labor, CEDETES ha generado tecnología en salud pública, que ha sido puesta al alcance de otros investigadores, académicos, estudiantes, autoridades de salud y tomadores de decisión en diferentes niveles, a lo largo de toda América Latina. Entre ellas, la metodología para la evaluación de efectividad de políticas e intervenciones en salud pública, obtenida por más de seiscientos actores, individuales e institucionales, en América Latina; la metodología de evaluación económica en salud pública producida conjuntamente con la Organización Panamericana de la Salud (OPS), en asocio con otras universidades a nivel mundial; la metodología para la sistematización de experiencias en salud pública y promoción de la salud y un modelo de evaluación de efectividad de intervenciones en salud pública, basado en el uso de sistemas de vigilancia. En la línea estratégica de vigilancia CEDETES también tiene importantes desarrollos de reconocimiento internacional. Entre ellos ha diseñado y validado el Sistema de Vigilancia de Factores de Riesgo de Comportamiento en Escolares Adolescentes, SIVEA; y el Sistema de Vigilancia de Factores de Riesgo y Determinantes Sociales, Asociados a Enfermedades Crónicas, SIFREC. 6 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Desde el 2004 fue reconocido como Centro Colaborador de la Organización Mundial de la Salud/Organización Panamericana de la Salud, OMS/OPS en evaluación, capacitación y abogacía en promoción de la salud. En 2010 fue clasificado por Colciencias como grupo categoría A. CEDETES Escuela de Salud Pública – Facultad de Salud- Universidad del Valle Calle 4B No 36-00 Edificio 118 – San Fernando Cali, Colombia, Suramérica Teléfono: (0572) 557 9005 PBX: (0572) 5585230 – 5581947 Telefax: (0572) 5585230 – 5581947 ext. 102 [email protected] – [email protected] www.cedetes.org 7 Ligia de Salazar 8 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas LA AUTORA Ligia de Salazar, Ph.D Doctorada en Investigación Evaluativa de McGill University, Canadá. Master in Public Health de la Universidad de Liverpool, Inglaterra. Magíster en Administración de Salud y Enfermera, de la Universidad del Valle, en Colombia. Creadora y directora del Centro para el Desarrollo y Evaluación de Políticas y Tecnología en Salud Pública, CEDETES, y profesora titular de la Escuela de Salud Pública, de la Facultad de Salud de la Universidad del Valle, en Cali, Colombia. Es la directora del Programa Latinoamericano de Evaluación en Promoción de la Salud, apoyado por los Centers for Disease Control and Prevention, CDC, de Estados Unidos, en el marco de un acuerdo de cooperación entre CDC y CEDETES. Así mismo coordinó y fue la líder regional para América Latina del Proyecto Regional de Evidencias de Efectividad en Promoción de la Salud, promovido por la International Union for Health Promotion and Education, IUHPE. Ha sido la única latinoamericana designada por la Organización Mundial de la Salud, OMS, como miembro de un panel mundial de expertos en promoción de la salud (2009-2013); ha participado como miembro 9 Ligia de Salazar del grupo científico de evaluación y producción de evidencias en promoción de la salud, de los CDC, y hasta el 2007, miembro del Comité Asesor de Investigaciones en Salud, de la Organización Panamericana de la Salud, OPS. Es reconocida internacionalmente por su trabajo en evaluación, conferencista internacional y miembro de comités científicos de las conferencias mundiales en torno a temas como la evaluación de efectividad de políticas y programas en salud pública y promoción de la salud; determinantes sociales de la salud y vigilancia enfermedades crónicas no transmisibles y factores de riesgo de comportamiento. Consultora de varias organizaciones internacionales, ministerios de Salud y organizaciones no gubernamentales de diferentes países del mundo. Ha escrito diferentes libros y artículos sobre evaluación y vigilancia en salud pública y promoción de la salud. Ha coordinado la adaptación e implementación latinoamericana del curso de salud pública basada en evidencias, promovido por la Escuela CARMEN, de OPS; así como diferentes proyectos para la documentación, sistematización y evaluación de intervenciones sobre enfermedades crónicas, entre otros. En 2009 fue reconocida por la Universidad del Valle como profesora distinguida. Es la investigadora principal del proyecto multicéntrico latinoamericano, para el diseño y validación de un modelo de evaluación de efectividad de intervenciones en salud pública, basado en el uso de sistemas de vigilancia, cuyos resultados se presentan en esta publicación. 10 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas CONTENIDO Agradecimientos y reconocimientos................................................. 13 Presentación...................................................................................... 15 I. Evaluación en salud pública desde la perspectiva de la promoción de la salud Conceptos, posiciones y controversias................... 17 Presentación.................................................................................. 17 Introducción.................................................................................. 19 1. Naturaleza de intervenciones en salud pública desde la perspectiva de la promoción de la salud............................... 21 2. Evaluación de políticas y programas en salud pública y promoción de la salud............................................................ 32 II. Identificación y formulación de la pregunta de evaluación... 61 Presentación.................................................................................. 61 Introducción.................................................................................. 63 1. Identificación y formulación de la pregunta de evaluación...... 65 2. Tipos de pregunta...................................................................... 69 11 Ligia de Salazar III. Enfoques metodológicos para la evaluación de políticas y programas en salud pública y promoción de la salud............... 77 Presentación.................................................................................. 77 Introducción.................................................................................. 79 1. Fundamentación........................................................................ 80 2. Desafíos metodológicos y políticos en la evaluación de efectividad............................................................................ 88 3. Enfoques metodológicos........................................................... 89 IV. Comunicación, puente entre la evaluación, la política y la práctica................................................................................... 121 Presentación.....................................................................................121 Introducción.....................................................................................123 1. Fundamentación..........................................................................125 2. Comunicación de la evaluación, políticas y toma de decisiones....................................................................................130 3. Uso de los resultados en la toma de decisiones..........................137 4. Algunas limitantes a tener en cuenta...........................................138 5. Identificación de los decisores y sus intereses de información.................................................................................140 6. Definición de los objetivos de comunicación.............................143 7. Selección de la estrategia de comunicación...............................143 12 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas AGRADECIMIENTOS Y RECONOCIMIENTOS El CEDETES y la autora agradecen y reconocen a las diferentes organizaciones, funcionarios, estudiantes de posgrado y usuarios de sistemas de salud en América Latina, quienes con sus reflexiones, experiencias y aportes prácticos enriquecieron el debate y propuestas sobre el tema de la evaluación de efectividad de intervenciones orientadas a la prevención y control de las Enfermedades Crónicas No Transmisibles. A las diferentes instancias municipales, departamentales y nacionales, como la Secretaría de Salud Municipal, la Secretaría de Salud Departamental, el Ministerio de la Protección Social y el Departamento Administrativo de Ciencia, Tecnología e Innovación de Colombia, Colciencias, quienes a través de estos 13 años de existencia del CEDETES han apoyado la ejecución de proyectos, disponiendo para esto no solo recursos financieros sino también de su recurso humano para el desarrollo de diferentes actividades. A las entidades internacionales, como los Centers for Disease Control and Prevention, CDC, la Organización Panamericana de la Salud, OPS y a la Unión Internacional de Promoción y Educación para la Salud, 13 Ligia de Salazar por su permanente apoyo y respaldo técnico al CEDETES a la línea de investigación de evaluación de la salud pública y promoción de la salud. A todos los participantes de los cursos y seminarios-taller de evaluación y evidencias llevados a cabo en diversos lugares de América Latina, quienes aportaron sus experiencias e intervenciones, contribuyendo con esto al análisis de las fortalezas y limitantes de la práctica de la promoción de la salud y la salud pública en América Latina. A las diferentes instancias que promueven la investigación y la difusión de la misma en la Universidad del Valle, especialmente a la Vicerrectoría de Investigaciones, al Vicedecanato de Investigaciones de la Facultad de Salud y al Programa Editorial de la Universidad del Valle. Especial reconocimiento y agradecimiento para todos los profesionales vinculados al CEDETES, quienes participaron activamente en el desarrollo de los proyectos y en la consolidación de la línea de evaluación en salud pública del Centro. A todos y cada uno de ellos especiales agradecimientos y reconocimientos. 14 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas PRESENTACIÓN Este documento pretende, como su nombre lo indica, suscitar la reflexión, el debate y la generación de propuestas para evaluar políticas y programas en salud pública y promoción de la salud. En ese sentido, dista de ser prescriptivo para más bien colocar en manos del lector aspectos críticos del debate actual en relación con la evaluación de intervenciones de naturaleza compleja. Por esto, más que recomendar un único enfoque de evaluación como respuesta a los asuntos críticos del debate, se exponen argumentos para cualificar las decisiones en relación con los diferentes enfoques metodológicos para conducir evaluaciones relevantes, de calidad y útiles, al igual que las implicaciones políticas, sociales y técnicas de cada una. Por considerar la función evaluativa como un proceso investigativo permanente de búsqueda y aprendizaje alrededor del comportamiento, desempeño y resultados de las intervenciones, con el fin de cualificar la formulación de políticas y programas, al igual que coadyuvar con la capacidad para actuar, abogamos porque la evaluación trascienda las fronteras de lo técnico y que este último aspecto esté al servicio de los intereses políticos, sociales, culturales y éticos que la salud de la población demanda. 15 Ligia de Salazar Desde esta perspectiva, la acción evaluativa está inserta en un complejo contexto en el cual valores, principios, intereses, recursos y voluntades se entremezclan con el fin de producir información y conocimiento para fortalecer la teoría y práctica de la salud pública y la promoción de la salud y, mas aún, sostener procesos de mejoramiento continuo de las condiciones de salud de las poblaciones. Con el anterior propósito, pretendemos que esta publicación sea inspiradora y de utilidad para directivos, funcionarios, investigadores, líderes comunitarios y estudiantes de diversas disciplinas y sectores, cuyo ámbito de práctica gire alrededor de la salud pública, de tal forma que esta última se revitalice al acoger los principios y valores de la promoción de la salud, como respuesta a los anteriores y nuevos desafíos para crear y mantener condiciones de salud favorables en la población. 16 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas I. Evaluación en salud pública desde la perspectiva de promoción de salud. Conceptos, posiciones y controversias PRESENTACIÓN En este capítulo realizamos una revisión crítica de los conceptos de salud pública y promoción de la salud a la luz de las teorías y enfoques metodológicos propuestos para evaluar desempeño, efectividad, impacto y costo efectividad de estas intervenciones. Esta revisión será insumo para comprender los planteamientos de los temas abordados en los siguientes capítulos de esta publicación y para juzgar si hemos logrado que la evaluación no sólo sea veraz y creíble, sino también “justa” (Heaney, et al. 1993). El contenido del capítulo se orienta a brindar elementos para comprender los conceptos básicos sobre evidencias, efectividad e impacto de intervenciones en promoción de la salud y salud pública para relacionarlos con el diseño, la implementación y la evaluación de políticas y programas. 17 Ligia de Salazar 18 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas INTRODUCCIÓN Las iniciativas en salud pública y promoción de la salud implican inevitablemente acciones en el campo social y político; es así como los determinantes de la salud, la creación de capacidad para intervenirlos, y la viabilidad para implementar las intervenciones según diferentes contextos sociopolíticos se suman a los tradicionales indicadores de morbilidad, discapacidad, mortalidad y factores de riesgo. Las teorías, las posiciones y las propuestas para diseñar, operar y evaluar intervenciones en salud pública y promoción de la salud, serán tema de estudio a la luz de los principios que soportan esa nueva mirada de la salud pública, la cual acoge los principios orientadores de la promoción de la salud tales como la equidad, la democracia y la justicia social; el desarrollo local; la producción social de salud; la autonomía y el empoderamiento de los sujetos y grupos sociales; y gestión de políticas públicas, lo que explica el carácter político de la evaluación. House (1981) y Heaney et al. (1993) sostienen al respecto que la importancia que la evaluación ha ido adquiriendo, tanto en medios académicos como institucionales, no reside sólo en su carácter de investigación científica, como en principio cabría pensar, sino muy especialmente en sus notables implicaciones políticas. Las evaluaciones 19 Ligia de Salazar se realizan con el propósito -tácito o explícito- de informar e influir, en un sentido o en otro, en el proceso de toma de decisiones políticas. De allí que los paradigmas que han prevalecido hasta el momento en relación con los enfoques de evaluación, deban ser revisados a la luz de este carácter político de la evaluación, y de la necesidad de que ésta cumpla con los principios éticos que subyacen a éstos. Según House (1981), la práctica evaluativa debe fundamentarse en principios éticos, tales como la igualdad de las distintas audiencias a la hora de tomar parte en el proceso de evaluativo, el hecho de que las opiniones puedan ser expresadas libremente y con total autonomía, la imparcialidad en el juicio y la reciprocidad. Para dar inicio a este capítulo, es necesario tener en cuenta algunos hechos relacionados con el alcance y la práctica de intervenciones en salud pública y promoción de la salud, y su influencia en la evaluación: • Uso de conceptos "prestados" de países que tienen realidades y contextos diferentes. Uno de los hechos que ha generado amplios debates es que la promoción de la salud en América Latina ha sido instituida con base en modelos foráneos. Por tanto, hay necesidad de identificar los componentes esenciales de su definición, teoría y práctica para nuestro medio, tomando en consideración características culturales, sociales, políticas y económicas propias. • Avances en salud pública que conceptual y estratégicamente conectan la salud a procesos de desarrollo. Hay necesidad de recoger en forma crítica y propositiva los fundamentos de estos procesos de cambio en la región y las razones para su limitado adelanto. • Mayoría de intervenciones y evaluaciones están orientadas a la prevención y control, a través de cambios en el comportamiento individual. Poco se sabe sobre la efectividad de las prácticas para 20 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas aumentar la capacidad para decidir y actuar al modificar situaciones adversas y promover estructuras y prácticas saludables en lo colectivo. • Escaso conocimiento sobre evaluación de intervenciones que incorporan en su práctica indicadores de desarrollo social y territorial. La mayoría de las evaluaciones usan indicadores de morbilidad, mortalidad y factores de riesgo o intervenciones en salud pública orientadas a la prevención y control de enfermedades. 1. Naturaleza de intervenciones en salud pública desde la perspectiva de la promoción de la salud Los teóricos de la promoción de la salud han identificado las bases conceptuales y los principios que fundamentan tanto la teoría como la práctica en este campo. A pesar de este esfuerzo, se encuentran una variedad de expresiones prácticas de ella, mediadas por la influencia de aspectos socioculturales y políticos del contexto. El uso de términos como promoción de la salud, medicina social, salud pública, y salud colectiva sugieren diferentes alcances del abordaje a la salud de la población. Es fundamental el esclarecimiento conceptual de estas definiciones, apoyado en las raíces históricas de estos abordajes, tanto para probar y construir teoría alrededor de su evaluación, como para cualificar los procesos de formulación de políticas e intervenciones en salud pública. Es claro que con paradigmas distintos, los modelos de intervención no pueden ser sujetos a un mismo mecanismo de validación. De acuerdo con una formulación realizada por Waters et al. (2006), la promoción de la salud y la salud pública abarcan la valoración de la salud de las poblaciones y la formulación de políticas para prevenir o responder a los problemas de salud, promocionando la salud y los ambientes saludables a través de un esfuerzo organizado de la sociedad. La salud 21 Ligia de Salazar pública promueve la acción social para invertir en condiciones de vida que mantengan y protejan la salud. Lo anterior cubre un amplio rango de intervenciones orientadas a mejorar la salud, actuando desde varios niveles y tipos de acción. Promoción de la salud y salud de la población La promoción de la salud y la salud pública tienen mucho en común. No obstante funcionan a partir de bases teóricas y supuestos de investigación en cierta medida diferentes. En 1996, en un esfuerzo por consolidar la complementariedad de estos dos enfoques, Health Canada produjo un modelo de síntesis “Promoción de la salud de la población”, que combinaba las estrategias de la Carta de Ottawa y una lista de determinantes importantes de la salud y grupos de población. Este modelo ha sido bien recibido entre los promotores de la salud de Canadá, habiéndose disipado buena parte de la inquietud inicial que suscitaron los enfoques sobre la salud de la población. El término ‘Promoción de la salud de la población̉ es de uso cada vez más generalizado, y es posible que se convierta en el nuevo concepto unificador, aunque para otros autores sea una redundancia. Los modelos de intervención en promoción de la salud no pueden ser sujetos a un mismo mecanismo de validación (Castro, 2004) No es lo mismo reconocer evidencias de efectividad de la promoción de la salud enmarcadas en una concepción médico-preventivista enfocada a la enfermedad, que desde una visión orientada al consumo individual de estilos de vida saludables, al cambio de conductas, o referidas a “desarrollo a escala humana”, la lucha por la equidad, la calidad de vida y la acción sociopolítica transectorial. Los diversos paradigmas de la salud pública y de las ciencias sociales determinan las interpretaciones y las prácticas de la promoción de la salud y por ende, deben ser referentes explícitos en cada caso, para el estudio de las evidencias de su efectividad. La promoción de la salud ha tenido especial atención, sobre todo a partir de la década de los años setenta, no sólo por quienes se desempeñan en el campo de la teoría y la práctica de la salud pública, sino también por quienes se ocupan de las políticas sociales y de salud. Los centros académicos y de investigación, los gobiernos, los ministerios de salud pública y los organismos de colaboración internacional en salud han dedicado importantes espacios de debate a este tema, pronuncián22 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas dose en relación con su concepción e importancia en las estrategias de salud y elaborando y difundiendo declaraciones, siendo la más conocida la Carta de Ottawa. Carta de Ottawa La Carta de Ottawa definió cinco áreas operacionales de la promoción de la salud, interconectadas de tal forma, que los alcances y resultados que se tengan en cada una de ellas, están determinados por lo que suceda en las otras, comportándose como un sistema complejo: 1. Formulación de políticas públicas, que además de orientar la acción en salud poblacional, den cumplimiento a los principios y valores que impulsan la promoción de la salud. 2. Fortalecimiento de las acciones comunitarias y de la participación de la gente en las decisiones y acciones relacionadas con su salud -empoderamiento-. 3. Creación de ambientes favorables tanto en sus dimensiones físicas como sociales y fortalecimiento del sistema de apoyo social de la comunidad. 4. Desarrollo de las aptitudes personales para tomar decisiones saludables y soportar presiones negativas para la salud. 5. Reorganización de los servicios de salud para hacer hincapié en la equidad en el acceso y calidad de la atención, al igual que en convertir las instituciones en escenarios desde donde se promueve y construye salud. Promoción de la salud según la Carta de Ottawa La promoción de la salud fue definida en la Carta de Ottawa como el proceso para proporcionar a los pueblos los medios necesarios para mejorar su salud y ejercer un mayor control sobre la misma (WHO, 1986). Este proceso alienta a las personas a que mejoren su salud porque pueden ejercer un mayor control sobre sus determinantes a través del empoderamiento de los grupos y de las comunidades para actuar individual y colectivamente. Aunque con la promulgación y adopción de la Carta de Ottawa la promoción de la salud fue claramente definida, su operación tiene múltiples expresiones y es moldeada, entre otros, por el pensamiento de las organizaciones que la impulsan, el contexto y el escenario socio político en el que se concibe e implementa; por resultados de experiencias previas, por el clima social y el equilibrio de las relaciones de poder. 23 Ligia de Salazar Lo anterior explica el por qué la promoción de la salud es visualizada y evaluada con base en su contribución para mejorar las condiciones de salud y su potencial para crear y mantener procesos de cambio social capaces de modificar sus determinantes. Estas perspectivas políticas y sociales explican en parte, la complejidad de estas intervenciones, lo cual se refleja en los criterios para juzgar su éxito y en los enfoques metodológicos para evaluarlas. Con alguna frecuencia se ha reducido el concepto de promoción de la salud a educación para la salud, olvidándose que ésta es solo uno de los recursos con que cuenta la promoción. Otro reduccionismo es convertir a la estrategia de promoción de la salud en acciones dirigidas a lograr cambios en los estilos de vida individuales. La promoción de la salud interviene en la dimensión social de los determinantes de la salud de la población, y es una categoría integradora esencialmente intersectorial y de participación social, por lo que rebasa las fronteras del accionar médico y de lo que comúnmente se conoce como el sector salud. En ocasiones se confunden los conceptos de promoción y prevención, por que aunque son diferentes, a la vez pueden ser complementarios. De las cuatro grandes estrategias de la salud pública (promoción, prevención, atención y recuperación), la promoción de la salud es la más social, la más integral, la que más impacto potencial tiene en las raíces de la salud y la que menos depende de la acción de los servicios de salud. Las acciones de promoción de la salud de mayor impacto son las poblacionales, a diferencia de las acciones de atención y recuperación que se realizan fundamentalmente sobre individuos. Cada problema, en cada contexto, requiere una respuesta social específica que consiste en una combinación de acciones; las de promoción de la salud de mayor impacto potencial, serán aquellas que se realizan sobre comunidades y poblaciones enteras con la participación de la mayoría de los sectores y actores sociales. Las acciones poblacionales de promoción (como, por ejemplo, la elevación del nivel educativo; las políticas para 24 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas garantizar el acceso y la equidad de oportunidades y bienes y servicios; la mejoría de la situación alimentaria y nutricional; el acceso a empleo seguro e ingreso digno; y la construcción de infraestructura sanitaria), intervienen sobre los procesos determinantes del estado de la salud, más que sobre riesgos y daños específicos. Si bien es cierto que interesa que los individuos adopten estilos de vida sanos, ello está altamente condicionado a la modificación positiva de las condiciones de vida de los grupos humanos. Los estilos de vida individuales responden en gran medida a las condiciones en que los individuos viven, estudian y trabajan. No es lo mismo promover cambios en los estilos de vida en personas con un alto nivel socio económico, que en quienes viven en un barrio marginal en situación de pobreza. Es obligatoria la modificación positiva de las condiciones estructurales de vida y por su conducto, los estilos de vida individuales. Significados de la práctica de la promoción de la salud Aunque hay una definición conceptual universal de promoción de la salud, su definición operacional, es decir, la forma como es implementada, difiere, como fue mencionado, según el contexto sociopolítico en el cual es conducida, la disponibilidad de ciertas condiciones para hacer factible la implementación y el enfoque filosófico e interés de los responsables de ponerla en práctica. La promoción de la salud como proceso social y político es por naturaleza dinámica, y está influenciada por las condiciones específicas de cada lugar, las cuales moldean tanto su esencia como su alcance, al igual que su implementación y su éxito. Estos elementos del contexto no necesariamente son identificados o entendidos al inicio de la intervención, de allí que sea necesario la vigilancia permanente del proceso y más importante aún, el uso de esta información para reorientar la intervención. Las intervenciones en salud pública y promoción de la salud se fundamentan en teorías del cambio. Éstas describen cómo una intervención 25 Ligia de Salazar supuestamente va a suministrar los resultados deseados y la lógica de causalidad en relación con el cómo y el por qué una intervención particular alcanza sus resultados. Una teoría del cambio puede ser modelada de varias formas: con modelos teóricos, modelos lógicos, estructuras lógicas, modelos de resultados y cadenas de resultados, los cuales deben ser probados en la práctica para producir teoría. Los principios y valores que soportan las acciones en promoción de la salud no siempre están de acuerdo con el sistema político y la legislación, lo que dificulta en reiteradas ocasiones el encontrar apropiados escenarios para implementar tales intervenciones; es el caso de reformas enfocadas a la provisión de servicios y a la rentabilidad económica de las instituciones. Frecuentemente se encuentran dificultades para caracterizar y simplificar intervenciones que por naturaleza son complejas, y esto se torna más difícil por la necesidad de pensar en que las causas de enfermar no son propiamente agentes biológicos fácilmente identificables, sino un sistema abierto de procesos sociopolíticos en el que ocurre el fenómeno salud-enfermedad en la población, al considerar la población como agregados de individuos en lugar de grupos organizados que se relacionan e interactúan siguiendo patrones específicos organizacionales. ¿Quiénes están involucrados? En 1990, la Organización Mundial de la Salud/Organización Panamericana de la Salud, OPS/OMS, propuso una definición que explicita los responsables de la promoción de la salud: “Suma de las acciones de la población, los servicios de salud, las autoridades sanitarias y otros sectores sociales y productivos, encaminados al desarrollo de las mejores condiciones de salud individual y colectiva”. La anterior definición implica una acción permanente que compromete a todos los actores de la sociedad, con una intencionalidad clara de fortalecer habilidades y capacidades de los individuos, las familias y los grupos a través de un proceso político y social. Este proceso se convierte en el centro de la acción y, por tanto, de la evaluación en promoción de 26 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas la salud. Una estrategia de promoción de la salud efectiva conduce a cambios en los determinantes de la salud y ejerce una influencia directa en la determinación social de la enfermedad. Esta responsabilidad es analizada por Mittelmark (2001), cuando afirma que vincular la salud con los derechos humanos y la equidad no sólo cambia las fronteras de la responsabilidad del gobierno por la salud, sino que implica cambios en la manera como los problemas de salud pública son conceptualizados y analizados; en el proceso para determinar intervenciones relevantes; en el diseño e implementación de las intervenciones, al igual que en los enfoques e indicadores para monitorear y evaluar su éxito al introducir indicadores relacionados con la exclusión y la discriminación, la equidad y la participación de la comunidad en decisiones que la afectan. En las áreas definidas por la Carta de Ottawa se articulan los ámbitos institucional, comunitario e individual, y aparecen elementos fundamentales que deben considerar las intervenciones enmarcadas en la promoción de la salud tales como la intersectorialidad, que es entendida como la planificación y cooperación entre sectores para crear mejores oportunidades para la vida saludable, lo que favorece la participación de diversas disciplinas; y el empoderamiento, como un proceso de acción social que promueve la participación de las personas, las organizaciones y las comunidades para lograr un mayor control individual y comunitario, mayor eficacia política, mejoramiento de la calidad de vida y justicia social (Wallerstein, 1992). Estrechamente vinculados a estos conceptos, y como aspectos estratégicos de las intervenciones en promoción de la salud, se encuentran las alianzas entre diversos actores sociales y la generación de redes sociales. Efectividad en la política Es reconocido que un aspecto esencial en promoción de la salud es la política pública que promueva condiciones bajo las cuales las personas vivan de manera saludable, trabajen, aprendan, jueguen y participen en la vida comunitaria. Dado que la política depende del proceso en que se concibe, diseña y sostiene, su evaluación debe dar cuenta de estos aspectos, qué la afecta, de qué forma y cómo usar el conocimiento (Milio, 1987; Minkler, 1997). 27 Ligia de Salazar Intersectorialidad La planificación y la práctica de la promoción de la salud es una actividad compleja como consecuencia de la participación de varios sectores para dar respuesta a las problemáticas que aborda. Si bien estamos acostumbrados a hacer la planificación de programas partiendo de una lógica sectorial en promoción de la salud, el arte de concebir, diseñar, y construir agendas de trabajo se realiza al articular sectores, recursos, disciplinas e instituciones en un esfuerzo coherente de planificación-acción. Para que la intersectorialidad tenga expresión real en los programas y acciones para mejorar y mantener las condiciones de salud de la población, se requiere que la acción de los responsables de estos programas sea producto de una concepción integral del desarrollo social con calidad y equidad, con énfasis en lo local y con una conciencia real de que para hacerlo sustentable se requiere el respaldo y la cooperación sinérgica y sostenida de los sectores público, privado y comunitario, representado no solo en una intencionalidad sino en agendas de trabajo y recursos compartidos, lo cual redundará en ganancias sociales y de salud. Los desafíos en este caso giran alrededor de las siguientes preguntas: ¿cómo cambiar una lógica de planificación sectorial por una intersectorial?; ¿cómo hacer de ésta una actividad permanente y no sólo coyuntural?; ¿cómo hacer que los planes de desarrollo territoriales se conviertan en medios y mecanismos para cumplir con este objetivo? Las condiciones socioeconómicas en la región han cambiado desde la expedición de la carta de Ottawa. En los países en desarrollo la deuda nacional, el crecimiento económico, el empleo, las políticas de bienestar, la migración a causa de la violencia, la descentralización administrativa y financiera, y la liberalización del mercado, han tenido repercusiones en los determinantes de la salud. A pesar de ello, las intervenciones en salud pública y promoción de la salud continúan focalizándose en la prevención y control de las causas proximales de enfermar y morir. Si bien no existe un solo camino para mejorar las condiciones de salud de las poblaciones, se han identificado una serie de componentes para orientar la práctica en este campo: empoderamiento y construcción de capacidad local para enfrentar condiciones adversas y promover salud mediante la organización de redes sociales; participación social y comunitaria en la toma de decisiones; reorientación de servicios para garantizar el acceso y calidad; y acción intersectorial soportada en alianzas para un desarrollo sostenible. Estos son algunos de los componentes comunes en este tipo de intervenciones. 28 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas El concepto de complejidad aplicado a intervenciones en salud pública y promoción de la salud La complejidad ha sido definida como “una teoría científica, la cual sostiene que algunos sistemas presentan fenómenos comportamentales completamente inexplicables por cualquier análisis convencional sobre cualquiera de las partes que constituyen el sistema” (Casti, 1997, citado en Hawe et al., 2004). El argumento es que “entre más dificultad haya para definir exactamente cuáles son los ingredientes centrales (activos), de una intervención y cómo se relacionan entre ellos, es mayor la probabilidad de que estamos al frente de una intervención compleja”. (Medical Research Council, 2000, citado en Hawe et al., 2004). El reducir un sistema complejo a la cantidad de componentes que lo integran sería una pérdida irrecuperable de lo que hace que funcione como sistema, pues la intervención no es la suma de las partes (Casti, 1997, citado en Hawe et al., 2004). Es esta una de las razones para reflexionar acerca de la estandarización de intervenciones de este tipo. Debemos entonces preguntarnos ¿qué es estandarizable? Una forma alternativa de pensamiento en relación con la estandarización puede ayudar a contestar esta pregunta. Los aspectos fijos de la intervención son las funciones esenciales y el aspecto variable es su forma en diferentes contextos. Más que estandarizar la forma (mecanismos) de la intervención, lo que podría estandarizarse son los pasos (componentes) en el proceso de cambio para lograr el objetivo, dado que ellos provienen de la teoría en la que se basa la formulación de la intervención. Según Hawe et al., (2004), estos mecanismos podrían tomar diferentes formas de acuerdo con el contexto local. El punto central es permitir que la forma pueda ser ajustada mientras el proceso y la función podrían estandarizarse. El nivel de adaptación del contexto no significa que la integralidad de lo que se está evaluando en diferentes sitios se pierda. La clave es definir la integralidad basada en su funcionalidad, más que por sus componentes. 29 Ligia de Salazar Las intervenciones en salud pública deben tratar de entender las comunidades como sistemas complejos, en los cuales los problemas de salud o fenómenos de interés son producidos y manejados por el sistema (Hawe et al., 2004). La integridad de la intervención debería ser definida como la evidencia que encaja con la teoría o principios del proceso de cambio que se ha conceptualizado. La racionalidad de una intervención compleja, los cambios esperados y cómo éstos son alcanzados puede que no estén claros al inicio. Una tarea clave es desarrollar un entendimiento teórico del probable proceso de cambio, obteniendo evidencia y teoría, complementado, si es necesario, por investigación primaria. La complejidad según Shield et al., (2008), es propiedad de un sistema, no de una intervención. Un sistema complejo es aquel que se adapta a los cambios en el ambiente local, está compuesto por múltiples subsistemas complejos y se comporta en forma no lineal. Las intervenciones en estos escenarios pueden ser simples o complejas, pero el enfoque de sistemas complejos nos hace considerar el intervenir y estar atentos a las interacciones que ocurren entre componentes de la intervención al igual que entre la intervención y el contexto. Aunque una intervención sea definida como compleja, en la práctica prevalece el pensamiento de intervenciones simples cuando se trata de describir la intervención y definir si su integridad está ligada a la estandarización de las formas de implementarla. Un análisis crítico de la lógica de la intervención puede ayudar a construir intervenciones más fuertes y efectivas (Hawe et al., 2004). La complejidad según Shield et al. (2008), tiene dos significados: el primero como una propiedad de la intervención y el segundo, como propiedad del sistema en el que la intervención es implementada. Según este autor, una intervención compleja es construida por una serie de componentes, los cuales pueden actuar en forma independiente o interdependiente. Esto es lo que hace difícil definir los “ingredientes 30 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas activos” de la intervención y estar seguro de cuáles componentes o combinaciones de componentes son más importantes. La distinción entre estos dos enfoques (intervenciones complejas vs sistemas complejos) es poco clara, ya que comparten características comunes: por ejemplo, la no estandarización, multiplicidad, e interacciones. Más aun, las intervenciones complejas pueden presentar las características de sistemas complejos dado que es imposible separar la intervención de agencias humanas requeridas para su implementación. La investigación en salud frecuentemente usa el término complejo para referirse a intervenciones que tienen múltiples componentes. Una forma alternativa es ver la complejidad desde la perspectiva del sistema en donde se implementa la intervención. De allí que Craig et al. (2008), argumenten que se requiere de un buen entendimiento de la teoría (cómo la intervención produce un cambio), para lograr que los vínculos débiles en la cadena causal puedan ser identificados y fortalecidos. La ausencia de efectos puede significar fallas de la implementación más que verdadera inefectividad, y un solo resultado puede que no sea suficiente. Finalmente, Craig advierte que asegurar una estricta estandarización puede ser inapropiado; la intervención puede funcionar mejor si se especifica en el protocolo el grado de adaptación a diversos escenarios locales. Hay dos preguntas que debemos respondernos en intervenciones complejas: la primera hace referencia a la efectividad e impacto de la intervención. Es importante comprender la cantidad de efectos y cómo varían entre los recipientes de la intervención o en los diferentes escenarios en donde se aplique. La segunda se relaciona con la funcionalidad de la intervención, en otras palabras, cuáles son los ingredientes activos y cómo ellos producen efecto. 31 Ligia de Salazar 2. Evaluación de políticas y programas en salud pública y promoción de la salud ¿Qué es evaluación? La evaluación es percibida como un campo de investigación multidisciplinario y aplicado, el cual intenta estudiar aspectos del mundo real en forma oportuna (Benjamín, Perfetto y Greene, 1995). Para Smutylo, T. (2001), la evaluación es parte integral de un programa y de la gerencia de un proyecto. Es una herramienta de aprendizaje organizacional orientada al fortalecimiento de la responsabilidad institucional. Milio, por otro lado, argumenta que los estudios para evaluación de políticas buscan identificar las brechas entre lo que es y lo que debiera ser, en términos de políticas, objetivos y resultados, y entre fines y medios (Brewer y de León, 1983). En términos generales, la evaluación se define como la comparación y valoración del cambio de un evento en relación con un patrón de referencia y como consecuencia de una determinada intervención. La evaluación también se ha definido como la “valoración sistemática y objetiva de un proyecto, programa o política que se está desarrollando o se ha completado, teniendo en cuenta el diseño, la implementación y los resultados. La evaluación debe brindar información creíble y útil, que posibilite la incorporación de las lecciones aprendidas en el proceso de toma de decisiones” (OECD, 1998). Según Hawe, Degeling, Hall y Brierley (2003), la evaluación es el juicio de valor alrededor de algo, y añaden que la forma como juzguemos depende de las expectativas, las experiencias pasadas, de lo que pensamos que es importante o no. Lo anterior afecta la forma como se realiza la evaluación, los intereses que sirven y los métodos que usamos. Por ello, no hay una forma estandarizada de hacer la evaluación, ni de los productos que de ella se obtengan. De otra parte, de acuerdo con Brownson, Baker, Leet y Gillespie (2003), la evaluación es el proceso de analizar programas y políticas, 32 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas así como el contexto en el cual ellas ocurren para determinar si en una implementación se requiere hacer cambios y valorar las consecuencias intencionales y no intencionales; lo anterior incluye, pero no se limita a determinar, si ellos están alcanzando sus metas y objetivos. Según el Diccionario de Epidemiología (Last, 1983), la evaluación es un “ proceso que intenta determinar, lo más sistemática y objetivamente posible, la relevancia, efectividad e impacto de determinadas actividades a la luz de sus objetivos”. Hay una considerable variación en los métodos usados para evaluar programas y, sin embargo, hay mucha más variación en el lenguaje usado para describir cada una de las distintas técnicas de evaluación. Hay métodos y técnicas de evaluación, de orden cuantitativo y cualitativo, siendo los más fuertes los que combinan los dos. La evaluación es parte esencial de los programas y políticas basados en evidencia. Mediante la evaluación se puede: (1) orientar correcciones y cambios a medio curso de los programas o políticas; (2) ayudar a determinar si el programa o política ha sido efectivo y cuánta de esa efectividad se debe a la intervención o a otras intervenciones simultáneas; y (3) proveer información para planear el próximo programa o política. A continuación se presentan algunas definiciones de evaluación de impacto, de resultados y de efectividad, en las cuales se muestra que no hay líneas divisorias definidas o que se contrapongan a los conceptos de diversos autores. Evaluación de impacto El Banco Mundial (2000) ha establecido que la evaluación de impacto tiene como objetivo determinar si el programa, plan o proyecto “ produjo los efectos deseados en personas, hogares e instituciones, y si esos efectos son atribuibles a la intervención del programa. Las evaluaciones de impacto también permiten examinar consecuencias no previstas en los beneficiarios, ya sean positivas o negativas”. Para 33 Ligia de Salazar algunos evaluadores esto es lo que se conoce como una evaluación de efectividad, la cual se establece una vez que podemos atribuir los cambios o resultados observados a la intervención teniendo en cuenta sus objetivos. El objetivo de esta evaluación es valorar los efectos más generales y menos inmediatos de la intervención en las necesidades de sus beneficiarios. Es un análisis complejo, pues debe indagar en las relaciones de causalidad entre la intervención y los cambios observados (efecto neto) deslindándolos de los efectos producidos por intervenciones distintas a la evaluada o por la propia evolución del contexto. Además, se debe indagar sobre la capacidad de replicar los efectos positivos una vez finalizado el programa, plan o política, es decir, la viabilidad y sostenibilidad de la intervención. Como puede observarse en las dos definiciones anteriores, hay similitudes y diferencias; la primera similitud es que en ambas se trata de atribuir los cambios a la intervención; la segunda es que tienen como criterio de éxito el cumplimiento de los objetivos para los que fueron creadas, pero en diferentes horizontes de tiempo. En cuanto a diferencias, la principal es que la evaluación de impacto estudia los cambios a largo plazo, bien sea previstos o no, y segundo, los efectos producidos una vez que el programa se suspende. Evaluación de resultados. Es aquella cuyo objetivo principal es valorar hasta qué punto se pueden conseguir, se están consiguiendo o se han conseguido los objetivos establecidos más inmediatos (efectividad), y examinar a qué costo se alcanzan en términos de tiempo, y recursos humanos, materiales y monetarios (eficiencia). Como puede apreciarse la evaluación de resultados es un insumo para las evaluaciones anteriores y brinda información sobre los productos o logros como parte de un proceso y no solo al final de la intervención. Los indicadores intermedios para valorar la implementación y el desempeño de la intervención hacen parte de esta evaluación. Como fue mencionado, este tipo de indicadores en intervenciones 34 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas cuyos objetivos se logran en un largo plazo, son muy importantes para mantener a los tomadores de decisiones informados y motivados acerca de la necesidad de dar continuidad a este tipo de iniciativas. La evaluación ha ocupado la atención de muchos teóricos, funcionarios y académicos, que han reconocido esta actividad como un desafío político y metodológico. La anterior afirmación se fundamenta en los debates sobre el tema, la literatura escrita, los esfuerzos realizados y las limitantes identificadas para desarrollar esta actividad (Speller et al.,1997; McDonnald, Veen y Tones, 1996; De Salazar, 2002; WHO, 2001). Evaluación de efectividad. Como hemos mencionado, la evaluación plantea en sí misma desafíos técnicos, políticos y culturales. Al concebir la promoción de la salud como un proceso político de construcción de capacidad para crear, proteger y mantener la salud, al intervenir y modificar sus determinantes, se entenderá que la evaluación debe centrarse tanto en la evolución de este proceso como en sus efectos en la salud y el bienestar de la población. La evaluación de efectividad de intervenciones de naturaleza política y social, como las que se desarrollan desde la perspectiva de promoción de la salud, deberá considerar entre otros aspectos: el hecho de que las iniciativas de promoción de la salud responden a procesos dinámicos y participativos, los cuales son de naturaleza multifactorial y multidimensional; la existencia en forma concomitante de diversas intervenciones con objetivos específicos, aunque complementarios; que son intervenciones en permanente cambio definidas en un proceso también permanente de reflexión-acción; se orientan a grupos y poblaciones, en diversas ocasiones con una alta movilidad; con efectos a largo plazo, muchas veces difíciles de medir y costear; y de beneficios frecuentemente intangibles para los tomadores de decisiones; deben estar articuladas a planes de desarrollo e intersectoriales, más que a planes sectoriales. 35 Ligia de Salazar Estas características son reflejadas en la evaluación; por tanto, hay necesidad de combinar las ciencias políticas, sociales y biológicas, así como diferentes niveles de acción: individual, familiar y comunitario, tanto en el análisis como en la interpretación de los resultados, teniendo en cuenta las limitaciones para definir en términos operativos los principales principios y valores que fundamentan este tipo de intervenciones; dificultad para generalizar y predecir resultados y el impacto; la diversidad y, en algunos casos, los intereses opuestos de los grupos de interés involucrados (evaluadores, financiadores, usuarios y teóricos); y la forma en que se conduce la evaluación en circunstancias de escasez de recursos. En el estudio Estado del arte sobre evidencias de efectividad en promoción de la salud en América Latina (2003) realizado en el marco de un proyecto promovido por la Unión Internacional de Promoción de la Salud y Educación para la Salud, UIPES, se encontró que la evaluación se ha caracterizado por la debilidad y poca relevancia de los diseños metodológicos en relación con los desarrollos teóricos de la salud pública y promoción de la salud, y como consecuencia de ello hay una limitada validez, confiabilidad y uso de la información. En este sentido, muchos esfuerzos carecen de la rigurosidad necesaria para ser tenidos en cuenta como evidencias útiles de apoyo al proceso de tomar decisiones. Se requiere, por tanto, un replanteamiento en los sujetos y objetos de evaluación, del alcance de la misma, de los métodos para seleccionar las preguntas, de los indicadores para establecer valor al objeto evaluado, de la definición de criterios sobre relevancia, validez, precisión, confiabilidad, reproductibilidad y utilidad de la información; de las relaciones entre evaluadores y tomadores de decisiones y de los medios para difundir y utilizar los resultados (De Salazar, 2002). Es por ello que la actividad evaluativa demanda la aplicación de métodos apropiados para identificar, comprender y valorar procesos y resultados de las intervenciones en sus dimensiones política, social y económica, y 36 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas en su contribución a la equidad y la calidad de vida de las poblaciones. Esta doble intencionalidad de la evaluación está orientada tanto a procesos como a resultados y consecuencias, y se relaciona con la construcción de capacidad para lograr efectos positivos en el estado de salud y en los determinantes de la salud y bienestar de la población. Es por eso que más allá de explicaciones etiológicas obtenidas ante situaciones ideales o controladas, se requiere producir información sobre la efectividad de las intervenciones ante situaciones reales mediante un proceso en el cual, tanto la misma intervención como las variables abordadas, en lugar de ser controladas sean identificadas, analizadas e interpretadas para explicar los cambios. Igualmente, se debe obtener información para comprender el proceso que produjo los resultados y establecer la correlación, asociación o atribución entre intervención y resultados. Evidencias de efectividad en promoción de la salud Las intervenciones en promoción de la salud son parte de procesos políticos de acción social que permanentemente deben repensarse para hacerlos coincidentes con las necesidades, intereses y expectativas de los actores, y para que sean producto de interpretaciones colectivas de la realidad y de una visión común para intervenirla. La evaluación de estas iniciativas se caracteriza por lo sistémico, permanente y circular de la investigación, reflexión y acción, mediante el cual se pretende responder a preguntas de diferente complejidad. Implica la aplicación de métodos, técnicas y herramientas para obtener información sobre procesos y beneficios comparativos de intervenciones en este campo. 37 Tanto evaluadores como investigadores sociales deben abogar para que la agenda investigativa en evaluación no sea definida solamente por agencias financiadoras, sino que cada día el objeto de las evaluaciones responda a los intereses de los formuladores de políticas y de una sociedad que tradicionalmente se ha visto marginada de los procesos de toma de decisiones que afectan su calidad de vida y bienestar. Ligia de Salazar Por un lado, la evaluación aporta información para juzgar el éxito de los programas y adoptar decisiones para la asignación de recursos (UIPES, 1999); y por otro, es de interés para los profesionales de la promoción de la salud y la comunidad beneficiaria, pues les ofrece información acerca del grado de éxito de una intervención con respecto al logro de los principios, los objetivos y las expectativas, al igual que de las condiciones objetivas que hicieron posible alcanzar los resultados esperados. Efectividad de la política Un aspecto esencial en promoción de la salud es la política pública que promueva condiciones con las cuales las personas vivan de manera saludable, trabajen, aprendan, jueguen y participen en la vida comunitaria. Dado que la política depende del proceso en que se forma y mantiene, su evaluación debe dar cuenta de estos aspectos: qué la afecta, de qué forma y cómo usar el conocimiento (Milio, 1987; Minkler, 1997). Premisas generales • La evaluación debe dar cuenta tanto de los cambios en los componentes de la intervención, como de los cambios en la condición de salud, según los determinantes sociales de esta. • La evaluación debe ser innovadora y aplicar enfoques metodológicos coherentes con su naturaleza; igualmente, debe tener en cuenta la dificultad para atribuir o establecer relaciones causales en torno a la efectividad de intervenciones interdisciplinarias, transdisciplinarias, multienfoque y producto de ambientes complejos y en continuo cambio. • La evaluación debe estar fundamentada en modelos y métodos que den cuenta de su naturaleza cambiante, incierta y multiestratégica. Las conclusiones deben estar soportadas no sólo en asociaciones estadísticas, sino también en asociaciones lógicas en el contexto social en que se desenvuelve el programa o la intervención. Por tanto, la evaluación debe aplicar una combina38 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas ción de métodos y técnicas cualitativas y cuantitativas apoyadas, cuando sea posible, en técnicas de triangulación de información. • Una evaluación, para que sea viable y pueda realizarse con la periodicidad requerida, tiene que incorporar en su diseño metodológico formas eficientes y confiables para obtener información, utilizando las fuentes existentes y creando nuevas opciones en caso necesario, tales como los sistemas de vigilancia epidemiológica, las estadísticas vitales, los registros municipales, las formas autóctonas de comunicación, los relatos e informes de progreso de proyectos comunitarios, los informes de monitoreo y evaluación, y los observatorios epidemiológicos y sociales. Son fuentes de información importante los sistemas formales e informales de comunicación e información, que hacen parte de la cotidianidad de las comunidades e instituciones al igual que los resultados de ejercicios de evaluación como el promovido por la Organización Panamericana de la Salud, OPS, con la Evaluación Participativa en Promoción de la salud (OPS, 2003). • Si aceptamos la naturaleza cambiante de las iniciativas en promoción de la salud, debemos admitir que el diseño metodológico de la evaluación debe tomar en cuenta este cambio, y más importante aun, explicitar las razones que indujeron a él. Esta actividad se logra si hay un proceso flexible y permanente de documentación y reflexión sobre la experiencia; o sea, si existe un proceso de sistematización (De Salazar, 2002). • Es improcedente evaluar la efectividad de intervenciones cuando no hay certeza de qué fue lo que se implementó y del contexto en el cual se llevó a cabo. La sistematización, incorporada al desarrollo del programa, se convierte en una herramienta efectiva para aportar la información necesaria al proceso evaluativo, dada su bondad para generar análisis crítico y reflexivo de las experiencias vividas en un trabajo colectivo-participativo. 39 Ligia de Salazar • La evaluación debe surgir de coaliciones entre los sectores y los actores comprometidos con la intervención, a fin de garantizar su activa y permanente participación, al recoger sus percepciones, intereses, aportes y puntos de encuentro, así como sus puntos de vista en la identificación y explicación de correlaciones entre variables o categorías de estudio. Esta participación debe contribuir a la selección de preguntas que se desean responder y a las formas de comunicar y utilizar los resultados. • La evaluación debe ser integral y con compromiso social. Ésta se reconoce como un proceso sistémico que descompone sus elementos constitutivos para efectos de observación, descripción, relación y valoración, y los integra en el análisis e interpretación de la información para explicar los fenómenos sociales, partiendo de circunstancias y hechos reales. Esta información es clave en los planes de mejoramiento y para la adopción o creación de nuevos programas. ¿Por qué es tan importante la evidencia en promoción de la salud? Desde la perspectiva de la promoción de la salud se cree que el futuro de la salud pública dependerá de su habilidad para demostrar científicamente que es un campo efectivo para la acción de la salud pública. En contraste, otros creen que la evidencia es inapropiada para el campo de la promoción de la salud. En lo que sí hay consenso, es en la necesidad de que la promoción de la salud demuestre su efectividad y desempeñe un papel cada vez más importante en el conjunto de políticas de salud pública. En el transcurso de los últimos veinte años de trabajo permanente en promoción de la salud, diversos interrogantes han surgido en torno a la relevancia y el éxito de las políticas e intervenciones en este campo, y acerca de los costos económicos, sociales, políticos y culturales que conlleva alcanzarlos. La necesidad de disponer de información sobre la efectividad y rentabilidad social de intervenciones en promoción de la salud ha sido reconocida en diversos escenarios y cada día crecen las 40 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas demandas para que se tomen decisiones informadas, fundamentadas en evidencias acerca de la efectividad, relevancia y utilidad de las políticas y programas. A pesar del reconocimiento público e importancia dada a la articulación entre la evidencia científica y la toma de decisiones en salud, en la práctica debemos afrontar diversas limitaciones para hacer esta articulación efectiva. Una de ellas se relaciona con el concepto de evidencia y su aplicación en promoción de la salud. Aunque ambos conceptos se han documentado ampliamente la articulación entre ellos todavía tiene muchos vacíos por cubrir. Es precisamente esta articulación la que define la orientación y alcance de la evaluación de efectividad en promoción de la salud. Otro obstáculo que ha sido reconocido es la limitada experiencia técnica para desarrollar estudios de evaluación en intervenciones complejas como las descritas, al igual que el uso efectivo de sus resultados. Con relación a este último punto, falta conocimiento y comprensión de la racionalidad detrás de los procesos de toma de decisiones, elementos centrales en cualquier estrategia de comunicación de resultados y de abogacía para articular la evaluación a la toma de decisiones y política pública. Si partimos de la necesidad de generar información relevante, oportuna y confiable para la toma de decisiones, más allá de explicaciones etiológicas obtenidas ante situaciones ideales o controladas, se requiere producir información sobre efectividad de las intervenciones en situaciones reales mediante un proceso en el cual, tanto la intervención como las variables abordadas en contextos específicos sean identificadas para comprender y explicar los cambios. Dado que los tomadores de decisiones generalmente muestran poco interés en resultados a largo plazo y tienden a valorar lo que pueden presentar como resultado de su gestión, la evaluación debe responder a esta necesidad, pero además, mostrar claramente aquellos beneficios que se podrían conseguir a largo plazo si determinadas condiciones 41 Ligia de Salazar del contexto se sostienen. Para ello, los estudios y las proyecciones basadas en asociaciones establecidas por otros investigadores podrían ser una gran ayuda. La evidencia y su aplicación en promoción de la salud Para mejorar la base de la evidencia en promoción de la salud, adicional al debate sobre tipologías de evidencia, hay otras preocupaciones importantes. En la práctica es válido notar que la evidencia sola no puede ser una práctica efectiva, como es el caso de la medicina basada en evidencia. La evidencia externa puede informar, pero nunca reemplazar la experiencia de los practicantes individuales, ya que éste es el que decide si la evidencia externa aplica en absoluto para el grupo objetivo de una intervención, y si es el caso, cómo debe usarse para lograr la efectividad. En otros términos, para una intervención efectiva, otras áreas críticas además de la evidencia necesitan ser tomadas en consideración (por ejemplo, las necesidades y expectativas de destinatarios directos de los servicios, los intereses de otros grupos de interés importantes, y la competencia de un practicante en la planeación y evaluación). El uso concienzudo y juicioso de la evidencia es sólo un elemento de la competencia de promoción de la salud. Es necesario pero no suficiente para lograr una efectiva promoción de la salud. (Tang, Ehsani y McQueen, 2003) Desafíos de la evaluación Durante el desarrollo de la evaluación nos enfrentamos a diferentes y permanentes desafíos, algunos de ellos ya resueltos y otros en proceso; los cuales todavía están esperando una respuesta, y es probable que no sea dada en el corto plazo. Han sido cuestionadas la relevancia, la complejidad, la utilidad y la viabilidad de aplicar diseños evaluativos cuya validez dependa del rigor científico y de supuestos que soportan los estudios analíticos. A continuación se mencionan los desafíos más sobresalientes de los diseños evaluativos: • Responder a intereses y expectativas de diversos actores sociales y socios de la intervención. • Cumplir con las premisas de la evaluación anteriormente mencionadas, sin afectar la validez de los resultados. Es el caso del 42 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas carácter participativo que debe tener la mayoría de las evaluaciones en contraste con la demanda de algunos estudios para que haya grupos control y se evite la “contaminación” entre los grupos comparados; reglas difíciles de cumplir en intervenciones poblacionales. • Combinar diversos enfoques y técnicas de evaluación que respondan a racionalidades e intereses diversos en un modelo comprehensivo y relevante con las etapas de la evaluación. • Ser eficiente durante el proceso evaluativo, logrando la participación de los directamente involucrados y articulando los resultados en la gerencia del programa. • Incorporar al diseño metodológico los elementos centrales de la intervención en promoción de la salud como la equidad, la intersectorialidad y la interdisciplinariedad, que esté dirigido a grupos e instituciones conectados con procesos políticos y sociales, incorporando a la comunidad como un actor activo. • Interpretar y comprender integralmente los fenómenos encontrados a partir de un análisis comprehensivo del contexto, del proceso y de los resultados de intervenciones, que son complejas, según ya lo hemos dicho. • Ser oportuno en la disponibilidad y el acceso de los resultados para la toma de decisiones, articulando tiempos políticos y tiempos técnicos. Difusión amplia de los resultados entre todos los públicos interesados en la experiencia, para aplicar mecanismos efectivos. Enfoques y paradigmas de la evaluación de efectividad Para Hawe, Degeling, Hall y Brierley (2003), la investigación evaluativa tiene diferencias con otros tipos de investigación debido a que involucra dos procesos: observación y medida, al igual que comparación de lo que se observa con algunos criterios o estándares que son 43 Ligia de Salazar Los paradigmas usados para guiar la formulación de preguntas y, por tanto, los diseños para responderlas, son de dos tipos: epistemológicos y ontológicos. Los primeros reflejan diferentes perspectivas en la relación entre quien establece la pregunta y lo que puede conocerse; y los segundos reflejan las diferentes perspectivas sobre la naturaleza de la realidad y lo que puede saberse sobre ésta. indicadores de buen desempeño y resultado. Los autores sostienen que no hay una forma correcta o incorrecta de evaluar, sino que depende de las diferentes percepciones y exigencias de los usuarios de la información en relación con lo que es considerado como “evidencia” de que algo funciona, al igual que el momento en que se realiza la evaluación. Es esencial reconocer que las opciones metodológicas que se seleccionen influencian la recolección e interpretación de los datos y la utilización de los resultados de la evaluación. Por ejemplo, mientras muchos estarían de acuerdo en que la evaluación en ausencia de los actores involucrados no es muy útil, hay casos en que la evaluación se realiza después de que el programa ha finalizado y los datos ya han sido reunidos. Esto limita el potencial para poder involucrar a los diferentes interesados en las decisiones sobre los tipos de preguntas y los datos que deben ser recolectados. Alternativamente, hay casos en que el foco de la evaluación y el tipo de datos recolectados son decididos por los implementadores del programa sin la entrada de un grupo más amplio de actores interesados, debido a la creencia que el involucrarlos, de algún modo, “contamina” los resultados de la evaluación. Por otro lado, Wilber citado por Labonte (1993), delimita tres categorías epistemológicas de la investigación; nos referiremos a dos de ellas: la analítica y la hermenéutica. La analítica estudia hechos reales independientes de nuestra percepción; es también llamada positivista. Este paradigma se caracteriza por la creencia en una sola realidad independiente de cualquier interés 44 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas del observador, las explicaciones de causalidad, su presunción de que una verdad universal puede ser encontrada y su preocupación por la predicción vía la prueba (certeza). La segunda categoría, la hermenéutica, considera las percepciones individuales de fenómenos que se vuelven modelos de la realidad socialmente construidos. Es la epistemología constructivista, la cual inicia con la idea fundamental de que existen múltiples realidades socialmente construidas, las cuales no están gobernadas por leyes universales. El autor añade que la “verdad” es la más informada y sofisticada declaración de entendimiento del cual hay un consenso razonable. El investigador está interconectado con el aspecto bajo investigación, al mostrar los hallazgos como creación del proceso de investigación, más que los hechos. Su metodología es un proceso de interacción, análisis, crítica, reiteración y síntesis, que lleva a la emergencia de algunos entendimientos compartidos de un caso o conjunto de relaciones. En resumen, la teoría constructivista se ocupa del significado, vía entendimiento-comprensión. Si analizamos la evaluación de efectividad en promoción de la salud bajo estos paradigmas, se entendería que el enfoque constructivista podría ser el más apropiado. La pregunta es si, para los tomadores de decisiones y usuarios de los datos, este tipo de evidencia es suficiente y creíble para fundamentar sus decisiones. Se ha cuestionado la relevancia, la complejidad, la utilidad y la viabilidad de aplicar diseños evaluativos de investigación etiológica considerados óptimos por su capacidad para controlar aspectos que afectan la precisión y validez del estudio, como es el caso de los estudios experimentales (WHO, 2001; Susser, 1994 citado por Borja-Aburto, 2000). Más que calificar uno u otro tipo de evaluación, se trata de señalar las diferencias y la complementariedad entre ellas, sin forzar o desestimar las bases teóricas sobre las que se sustentan. Un aspecto central para lograr esta complementariedad es saber el vínculo entre 45 Ligia de Salazar los resultados intermedios y los finales, según el marco lógico en que se fundamenta la intervención. La evaluación de efectividad en promoción de la salud debe articular estos enfoques, tanto en su diseño como en la implementación y uso de la información. Por otro lado, el diseño metodológico debe propugnar por una interpretación y comprensión integral de los fenómenos encontrados a partir de un análisis comprehensivo del contexto, el proceso y los resultados. Contestar preguntas como ¿qué queremos saber?, ¿cuál es la información que esperamos obtener con la evaluación?, ¿para qué evaluamos?, ¿qué haremos con la información?, y ¿quién requiere la evaluación? es de gran utilidad para definir el diseño más adecuado de evaluación. Lo anterior ha obligado a evaluadores y tomadores de decisiones a debatir el tema, al tener como referente factores que compiten tales como precisión, validez y oportunidad de la información versus su utilidad para la toma de decisiones; temporalidad de la investigación evaluativa versus proceso político y gerencial; información para promotores del proceso versus información para formuladores e implementadores de políticas e investigadores interesados en la teoría que fundamenta la promoción de la salud; evidencia de efectividad versus evidencia de rentabilidad social; factores técnicos y económicos versus factores éticos, entre otros. Por ello, el evaluador se enfrenta a situaciones conflictivas que debe sortear. ¿Qué cuenta como evidencia para las diferentes audiencias o tomadores de decisiones? El término evidencia es a menudo restringido a hechos cuantitativos derivados de diseños experimentales aleatorizados, que no capturan la complejidad inherente a la promoción de la salud (McQueen & Anderson, 2000). Irena Madjar y Jo Ann Walton (2001), argumentan que en una amplia noción de evidencias también se incluye la evidencia cualitativa 46 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas de experiencias vividas e historias de casos. Este tipo de evidencias es importante porque refuerzan la comprensión del comportamiento humano, promueven el pensamiento holístico, y ofrecen datos de contexto cualitativos que son más que sólo “meras opiniones”. La calidad de la evidencia se ha juzgado aplicando criterios como el tipo de estudio empleado, la coherencia de los hallazgos con los resultados de otras investigaciones, y en general, aspectos relacionados con la estimación de causalidad y atribución. Para tomadores de decisiones, sin embargo, existen otros criterios para valorar la evidencia de éxito o efectividad de una intervención, los cuales también deben ser tenidos en cuenta. Criterios para valorar el éxito o efectividad de una intervención Hay diferencias importantes de perspectiva y énfasis con respecto a aquello que representa el éxito de un programa de promoción de la salud. Entre dichas perspectivas podemos citar: Los responsables de elaborar las políticas y los gestores de presupuestos, que deben tener la capacidad de juzgar el éxito (o posible éxito) de los programas, con el fin de adoptar decisiones relativas a cómo asignar recursos y rendir cuentas de sus decisiones. Este éxito suele definirse en términos de la relación que existe entre la inversión y el logro de los resultados de salud a corto plazo. Los profesionales de la promoción de la salud, que deben ser capaces de juzgar, con una dosis razonable de confianza, el posible éxito en la “vida real” de un programa, con respecto al logro de sus objetivos y el logro de resultados intermedios. Este éxito se podría definir en términos de la factibilidad de implantación de un programa, y de las posibilidades de lograr que las personas y las organizaciones se comprometan con la iniciativa. La población que se beneficiará de la acción de promoción de la salud, que valore el proceso por medio del cual se lleva a cabo un programa, principalmente si un programa es participativo o no y si aborda o no prioridades que la propia comunidad haya identificado. Este éxito se podría definir en términos de relevancia con respecto a las necesidades percibidas y de las oportunidades de participación de la comunidad. Los investigadores académicos, que necesitan juzgar el éxito con el fin de mejorar el conocimiento y la comprensión de la relación que existe entre las intervenciones y los efectos observados aplicando ‘reglas de evidencia’ científica. Este éxito se podría definir en términos de rigor metodológico, como mantenimiento de la integridad de los programas y el logro de resultados predeterminados. Si bien las anteriores perspectivas para juzgar el éxito de una intervención son diferentes, no son mutuamente excluyentes. Cada una de ellas tiene por objeto modificar los determinantes de la 47 Ligia de Salazar salud y lograr una mejora de ella, pero presentan diferencias marcadas en cuanto al énfasis que ponen en el proceso mediante el cual alcanzan sus resultados y en cuanto a la importancia que atribuyen al coste y a la factibilidad de la implantación. En consecuencia, hay actualmente un amplio espectro de métodos y medidas que se utilizan en la evaluación y establecimiento de la evidencia. Esta variación refleja no solamente las distintas perspectivas mencionadas, sino también las importantes diferencias de estructura y punto de partida de las intervenciones, al igual que los enfoques metodológicos para responder a las preguntas de evaluación. Adaptado de: “La evidencia de la eficacia de la promoción de la salud”. Parte II. Libro Evidencias. Un informe de la Unión Internacional de Promoción y Educación para la Salud, UIPES. Simon et al. (1986), en su estudio sobre la selección en circunstancias de incertidumbre, inconsistencia e información incompleta, anunciaron un fenómeno aún vigente. Según los autores, cuando a la gente se le brinda información acerca de la probabilidad de ciertos eventos y luego recibe información adicional relacionada con la ocurrencia del evento (hechos concretos, no probabilidades), tiende a ignorar las probabilidades previas en favor de información muchas veces incompleta e irrelevante acerca de un evento particular. El caso anterior lo vemos en la influencia de los medios masivos de comunicación. En el proceso de reconocimiento de tomadores de decisiones debemos diferenciar entre aquellos que usarán los resultados de la evaluación para reorientar la intervención y los que tienen interés en usar las recomendaciones para tomar decisiones relacionadas con la continuidad y la extensión del proyecto. En síntesis, los primeros toman decisiones más de carácter técnico y los segundos, de tipo político. La participación de ambos contribuye a la calidad de la evaluación, al igual que a la viabilidad y factibilidad y el grado de uso de resultados de la misma. Es probable que haya diferencias entre lo que quieren saber los que están implementando la intervención y los financiadores o interesados en extenderla o repetirla en otro lugar. Los primeros podrían estar más interesados en el desempeño de un programa y en la comprensión de su proceso de implementación para introducir ajustes; y los segundos 48 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas tendrán, tal vez, mayor interés en conocer sus resultados y grupos beneficiados para justificar la inversión. Nutbeam et al. (1990) citados por Potvin, Haddad y Frohlich (2001), brindan información que ayuda a definir el tipo de participación de cada uno de los potenciales involucrados en la evaluación. Según los autores, la evaluación puede realizarse en unos pocos días o en muchos meses, conforme el tiempo y recursos para informar a los tomadores de decisiones. Algunos autores (Nutbeam y Harris, 2004; Weiss, 1999) han reconocido que la evidencia y la evaluación son usadas en una variedad de formas para orientar, justificar o apoyar el desarrollo de políticas y estudiar la relación entre evidencia y política (Milio, 1987); y han explicado las diferentes formas en las cuales la evidencia ha sido utilizada para guiar el proceso de formulación de políticas (Lin y Gibson, 2003). Igualmente, si bien es deseable que las decisiones se fundamenten en información confiable acerca de las relaciones causales entre variables, es sabido que en diversas ocasiones la formulación de políticas se basa en el uso de medidas menos precisas. Por tanto, los evaluadores deben reconocer esas limitaciones y dar a conocer la validez, la aplicabilidad y las restricciones de la evaluación y las recomendaciones que de ella se deriven (Dowed y Town, 2002). Es conveniente indagar y llegar a un consenso si hay muchos interesados en la evaluación, y que no tienen la misma perspectiva o parámetros para valorar el éxito de los resultados de la intervención. La evaluación según la perspectiva de un sólo usuario puede producir resultados “sesgados” dado que la perspectiva de éste no necesariamente refleja la de otros actores, aunque sí orienta la evaluación y fija el referente para comparar y valorar si algo funciona o es efectivo. A este respecto, Gupta (2001) cuestiona la neutralidad al asignar un valor, señalando que en un mundo de ideologías, es imposible ser completamente neutral cuando se hace un análisis político. Aunque hay normas, valores e ideologías, no debemos permitir que sean obstáculo para aplicar el análisis sistemático. 49 Ligia de Salazar Si reconocemos estas limitaciones externas las podremos incorporar en nuestro razonamiento científico. La cuestión de la perspectiva se vuelve crítica en el análisis político cuando lo consideramos desde la perspectiva de un sólo “cliente” o usuario de la información, dado que los analistas pueden subordinar la metodología a los intereses de ese cliente. Es indispensable reflexionar sobre dos preguntas que hace Gupta (2001) en relación con la selección de la perspectiva de análisis: ¿cómo la ideología y la percepción afectan la interpretación de los resultados de la evaluación?; y ¿puede resolverse esta disputa con herramientas analíticas objetivas? Es necesario que tengamos presente que las diferentes perspectivas o enfoques de evaluación, en lugar de contradecirse, son parte de un proceso dialéctico de sucesivas aproximaciones a la verdad, en donde Evidencia de efectividad y uso de resultados Por lo general, la evaluación es descrita como un proceso útil que contribuye a la transformación de proyectos. También se define como proveedora de datos científicos que apoya la toma de decisiones. Este uso instrumental de los resultados de la evaluación es el criterio último con el cual gran número de evaluadores describen su función, aunque esto rara vez se logra. Por lo anterior, varios teóricos de la evaluación han propuesto otros usos, tales como “iluminación”, o sea, el aporte de la evaluación para dar explicaciones teóricas acerca del funcionamiento del mundo (Weiss, 1972). Para Mark, Henry y Junes (2000) se puede decir que todos esos usos específicos de los resultados de la evaluación coadyuvan el mejoramiento social, teniendo en cuenta que “aun sin un uso directo, los resultados de la evaluación frecuentemente ayudan a definir los supuestos de la gente, sus creencias y expectativas, y éstos al mismo tiempo parecen influenciar las decisiones posteriores acerca de programas y políticas, algunas veces distantes en tiempo y lugar de la evaluación original”. Evidencia y política El factor político y ético de la evaluación de evidencia de efectividad ha sido señalado por Ray, L. D. & Mayan, M. (2001), al hacer la pregunta quién determina qué se considera como evidencia, cuáles son los indicadores apropiados, y cuáles son los estándares de comparación. Por otro lado. Otra pregunta es ¿cómo lograr consenso de criterios para juzgar la evidencia de efectividad de una política y programa cuando diferentes expectativas y racionalidades se encuentran? 50 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas el énfasis de la evaluación y los indicadores para valorar la práctica, a través de su efectividad e impacto, con frecuencia dependen del momento o ciclo de vida de la intervención y, por tanto, de la viabilidad de observar los productos de interés. Según Nutbeam y Harris (2004), la política puede ser influenciada por la evidencia en los siguientes casos: si la evidencia está disponible y es accesible al momento de ser necesitada; si encaja en la visión política; y si se orienta a acciones en las cuales el poder y los recursos están –o pueden estar– disponibles, al igual que si hay sistemas, estructuras y capacidad para actuar. Las anteriores consideraciones marcan claramente la necesidad de relacionar evidencia con toma de decisiones; en otras palabras, evaluación y proceso político. También obliga a considerar en la selección del diseño evaluativo este aspecto y no sólo el técnico, y ser cuidadosos de no afectar la validez del estudio. Esto nos lleva a entender que de la misma manera que para los implementadores no será suficiente, y es más bien contraproducente, esperar al final de la intervención para evaluar sus resultados, para los financiadores y los planificadores quizás los resultados intermedios, los datos cualitativos y las percepciones centradas en el proceso político, no sean evidencia de éxito y, por tanto, no se pueda influir tan fácilmente en la toma de decisiones. Todo ello plantea la necesidad de ahondar sobre los requerimientos de información de las diferentes audiencias. Como una respuesta a los anteriores planteamientos se proponen diseños de evaluación que establezcan la asociación entre intervención y resultados (intermedios, proximales y –efectos a más largo plazo – distales); asociaciones explicadas no sólo por los resultados de pruebas estadísticas, sino por análisis relevantes y plausibles, producto de marcos lógicos construidos socialmente y que utiliza información sobre la documentación del proceso político y metodológico de implementación de la intervención (estrategias y mecanismos); combinación de métodos e instrumentos de investigación cualitativa y cuantitativa e información de varias fuentes, según momentos del ciclo de la intervención. 51 Ligia de Salazar La evaluación en promoción de la salud debe ser un proceso sistemático, de sucesivas aproximaciones, por lo que no se trata de un ejercicio en un momento único sino de una tarea cuya periodicidad se extiende en el tiempo de la implementación de la intervención y más allá de su finalización. Esto implica integrar la evaluación a la cotidianidad del desarrollo de la intervención y su gerencia. El enfoque sistémico de la evaluación en promoción de la salud demanda la interrelación lógica entre sus componentes y el contexto en el cual la iniciativa se inscribe. La búsqueda permanente de las interrelaciones entre los componentes dará las bases para la obtención de las señales de efectividad de las intervenciones. Las evaluaciones en promoción de la salud pueden orientarse a valorar la implementación de la intervención, a reconocer las fortalezas, las frustraciones, el grado de satisfacción de los usuarios, las reacciones de interesados y opositores, entre otros; a valorar la efectividad y el impacto generado, y a producir nuevo conocimiento mediante la prueba de hipótesis. A este respecto, Speller, Learmonth y Harrison (1997) señalan dos tipos de evidencia: la primera es utilizada para “vender” promoción de la salud y salud pública, se refiere a la validez externa; y la segunda, está orientada a construir teoría, por lo cual debe tener validez interna. Ambos se complementan según el propósito de la evaluación. Si entendemos que la evaluación en promoción de la salud es inherente al proceso de implantación de las intervenciones, ésta deberá orientarse a responder a los diferentes intereses y preguntas según su ciclo de vida, los procesos y los resultados esperados en el momento de la evaluación. Desde esta perspectiva, se logrará una construcción sistemática de muestras de efectividad y una reflexión sobre la práctica en diferentes momentos. El estudio del proceso, además de brindar información para redireccionar los programas e intervenciones, se convierte en el insumo más importante para entender y explicar el porqué de un determinado resultado o efecto. 52 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas El llamado es a evaluar no sólo los resultados e impacto de las intervenciones sino el proceso político y social para lograr los objetivos de la promoción de la salud. Según Nutbeam y Harris (2004), las intervenciones en promoción de la salud pueden tener diferentes niveles de resultado y diferentes efectos en el tiempo. Para estos autores la evaluación de impacto representa el primer nivel de resultados de un programa. Ray y Mayan (2001) han abordado la parte política y ética de la evaluación de efectividad al preguntarse sobre los significados de evidencia, los indicadores correctos y los estándares apropiados. Por ello, no sólo es importante preguntarse por la efectividad de una determinada interCuadro 1: Un modelo de resultados de la promoción de la salud. Resultados sociales y • Resultados sociales: calidad de vida, independencia funde salud cional, equidad. • Resultados de salud: reducción de la morbilidad, discapacidad, mortalidad evitable. Resultados inter• Estilos de vida saludables: consumo de tabaco, elecciones medios de la salud alimenticias, actividad física, consumo de alcohol y drogas. (determinantes de la • Servicios sanitarios eficaces: prestación de servicios presalud modificables) ventivos, acceso a los servicios sanitarios y su adecuación. • Entornos saludables: entornos físicos seguros, condiciones económicas y sociales que apoyen la salud, buen suministro de alimentos, acceso restringido al tabaco y al alcohol. Resultados de la • Alfabetización para la salud: conocimiento relacionado con promoción de la salud la salud, actitudes, motivación, intenciones conductuales, (medidas del impacto habilidades personales, autoeficiencia. de las intervenciones) • Acción y eficiencia sociales: participación comunitaria, empoderamiento de la comunidad, normas sociales, opinión pública. • Políticas públicas saludables y prácticas organizativas: declaraciones políticas, legislación, reglamentación, asignación de recursos, prácticas organizativas. Acciones de promo- • Educación: educación de los pacientes, educación escolar y ción de la salud comunicación con los medios de información, por ejemplo. • Movilización social: desarrollo de la comunidad, facilitación de los grupos y asesoramiento técnico, por ejemplo . • Abogacía: lobbing, organización y activismo político, superación de la inercia burocrática, por ejemplo. Tomado de: UIPES (2000) 53 Ligia de Salazar vención sino por el proceso que fue capaz de producir esos resultados en el corto, mediano y largo plazo (WHO, 2001). La respuesta a preguntas como ¿qué queremos saber?, ¿qué información esperamos obtener con la evaluación? o ¿quiénes son los interesados en los resultados?, será de gran utilidad para definir las preguntas de evaluación apropiadas, el grado de precisión requerida y el diseño más indicado. ¿Qué evaluar? Con el fin de establecer una evidencia más convincente del efecto de los programas en el tiempo, es necesario que los planifiquemos en función de una valoración progresiva de la evidencia derivada de la investigación epidemiológica, conductual y social que indique la existencia de asociaciones razonables entre la intervención y los efectos a corto plazo, al igual que cambios posteriores estructurales tanto en los determinantes de la salud, sobre todo los relacionados con la equidad en el acceso y calidad de los servicios. Es necesario prestar atención a la creación de las condiciones necesarias para implantar con éxito un programa. Existen varias teorías y modelos que se usan de forma generalizada como guía del desarrollo y la implantación de programas, que es posible adaptarlos a la mayoría de las intervenciones. Para ello, podría ayudar el garantizar la existencia de una conciencia pública y política suficiente sobre este aspecto y la necesidad de acción; desarrollar capacidad para llevar a cabo el programa, por ejemplo, por medio de la formación de personal; y asegurar que las políticas sean expresadas en reglamentaciones y recursos para implantar y sostener el programa. Finalmente, la intervención debe tener una amplitud, duración y sofisticación suficientes para arrojar cambios y que éstos sean detectables. Dada esta complejidad, no puede existir un único método o medida considerado más importante o correcto para evaluar la efectividad de estas intervenciones, así como tampoco una manera absoluta de eviden54 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas cia. La evidencia de la efectividad está relacionada de forma inextricable con el punto de entrada (aspecto, población o escenario), la naturaleza y el proceso de implantación de la intervención, las condiciones del contexto en las cuales se da el proceso de implementación, y la audiencia receptora (responsable de elaborar las políticas, profesional sanitario, investigador académico, etcétera). 55 Ligia de Salazar BIBLIOGRAFÍA Banco Internacional de Reconstrucción y Fomento / Banco Mundial (2000). Directivas de desarrollo. Evaluación del impacto de los proyectos de desarrollo en la pobreza manual para profesionales. Washington, D.C. Pág 7-15. Benjamin, K. Perfetto, E. y Greene, R. (1995). “Public policy and the application of outcomes assessments: paradigms vs. politics”. En: Medical care, vol. 33, núm.4, págs AS299-306. Brewer, G. y de León, P. (1983). Foundations of policy analysis. Homewood, Dorsey. Brownson, R., Baker, E., Leet, T. y Gillespie, K. (2003). Evidence-Based Public Health, New York, Oxford University Press. Craig, P., Dieppe, P., Macintyre, S., Mitchie, S., Nazareth, I. y Petticrew, M. (2008). “Developing and evaluating complex interventions: the new Medical Research Council guidance”. En: Research methods & reporting. vol. 337:a1655. De Salazar, L. (2002). Municipios y Comunidades Saludables. El reto de la Evaluación. Centro para el desarrollo y evaluación de políticas y tecnología en salud pública. CEDETES. Universidad del Valle, Santiago de Cali, Colombia. 56 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas De Salazar, L., Vélez, J. y Ortiz, Y. (2003). Estado del arte de evidencias de efectividad en promoción de la salud en América Latina. Proyecto Regional Latinoamericano de Evidencias de Efectividad en Promoción de la Salud. Unión Internacional de Promoción de la Salud y Educación para la Salud, UIPES. Santiago de Cali, Colombia. Gupta, D. (2001). “Analyzing public policy: concepts, tools, and techniques”. Washington D.C., CQ Press a division of congressional quarterly Inc. Hawe, P.; Degeling, D.; Hall, J. y Brierley, A. (2003). Evaluating Health Promotion: A Health Worker Guide. Sydney, Australia, Maclennan and Petty Ltd. Hawe, P.; Shiell, A. y Riley, T. (2004). “Complex interventions: how ‘out of control’ can a randomized controlled trial be?” En: British medical journal, vol.328, pp.1561-1563. House, J. (1981). Work stress and social support. Reading, Massachussetts, Addison-Wesley. Heaney, C.; Israel, B.; Schurman, S.; Baker, E.; House, J. y Hugentobler, M. (1993) “Industrial relations, worksite stress reduction, and employee well-being: A participatory action research investigation”. En: Journal of organizational behavior, vol. 14, pp. 495-510. Labonte, R. (1993). Health Promotion and Empowerment: practice frameworks. Issues in Health Promotion. Series hp-10-0102. Centre for Health Promotion. University of Toronto, Canadá. Last, J. (1983). A dictionary of epidemiology. New York, Oxford University Press. Lin, V. y Gibson, B. (edits), (2003) Evidence-based health policy: problems & possibilities. Melbourne, Oxford University Press. Madjar, I. y Walton, J. (2001). “What is problematic about evidence?”. En: J. Morse, J. Swanson & A. Kuzel (edits.) The nature of qualitative evidence. Thousand Oaks: Sage. Mark, M.; Henry, G. y Julnes, G. (2000). Evaluation. An integrated framework for understanding, guiding, and improving public and non profit policies and programs. San Francisco, Jossey Bass. 57 Ligia de Salazar Mcdonnald, G., Veen, C. y Tones, K. (1996). “Evidence for success in health promotion: suggestions for improvement” En: Health education research, vol. 11, núm.3, pp. 367-376. McQueen, D. y Anderson, L. (2000) Evaluation in health promotion. Principles and perspectives. WHO Regional publications european series, No 92. Milio, N. (1987), “Making healthy public policy: developing the science by learning the art”. En: Health promotion international, vol. 2, págs. 263-274. Minkler, M. (edit.), (1997). Community organizing and community building for health. New Brunswick, Rutgers. Mittelmark, M. (2001).”Promoting social responsibility for health: health impact assessment and healthy public policy at the community level”. En Health promotion international, vol. 16, núm. 3, págs: 269-274. Nutbeam, D., et al. (1990). “Evaluation in health education: a review of progress, possibilities and problems” En: Journal of epidemiology and community health, vol.44, págs. 83-89. Nutbeam, D. y Harris, E. (2004). Theory in a nutshell, a practical guide to health promotion theories. Segunda edición. McGraw-Hill. OECD (1998) Review of the DAC principles for evaluation development assistance. Organization for Economic Co-operation and Development, OECD. Organización Panamericana de la Salud/Organización Mundial de la Salud [OPS/OMS], (1990). XXIII Conferencia Sanitaria Panamericana. Washington, D.C. Organización Panamericana de la Salud [OPS], (2003). Healthy Municipalities Evaluation Group. Evaluation of Healthy Municipalities: A practical toolkit. Draft Version, Washington D.C. Potvin, L., Haddad, S. y Frohlich, K. (2001), “Beyond process and outcome evaluation: a comprehensive approach for evaluating health promotion programmes”. Rootman, M. et al. (edits.), Evaluation in health promotion: principles and perspectives, World Health Organization, WHO, Regional publications, European series, núm. 92. 58 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Ray, L. y Mayan, M. (2001), “Who decides what counts as evidence?”. En: Morse, Swanson y Kuzel (edits.). The nature of evidence in qualitative research. Thousand Oaks: Sage, págs 50–73. Shiell, A., Hawe, P. y Gold, L. (2008), “Complex interventions or complex systems? Implications for health economic evaluation” En: British medical journal, vol. 336, págs. 1281-1283. Simon, H., Dantzig, G., Hogarth, R., Piott, C., Raiffa, H., Schelling, T. et al. (1986), Decision making and problem solving. [En línea], disponible en: http: //www.dieoff.org/page163.htm Recuperado: el 2 de septiembre de 2009. Smutylo, T. (2001). Impacto latente, atribución oculta: Cómo superar las amenazas al aprendizaje en los programas de desarrollo. Unidad de Evaluación, Ottawa, Canadá. Centro Internacional de Investigaciones para el Desarrollo, CIID-IDRC. Speller, V.; Learmonth, A. y Harrison, D. (1997). “The search for evidence of effective health promotion” En: British medical journal, vol. 315, págs 361-363. Susser, M. (1994). “The logic in ecological. The logic of análisis”. En: Am J. Public health, vol.84, núm. 5, págs. 825-829. Tang, K., Ehsani, J., McQueen, D. (2003). “Evidence based health promotion: recollections, reflections, and reconsiderations” En: Journal of epidemiology & community health, vol. 57, págs 841-843. Unión Internacional de Promoción de la Salud y Educación para la Salud [UIPES], (1999). La Evidencia de la Eficacia de la Promoción de la Salud: Configurando la Salud Pública en una Nueva Europa. Un Informe de la Unión Internacional de Promoción de la Salud y Educación para la Salud, para la Comisión Europea. Segunda parte. Libro de evidencia. Wallerstein, N. (1992, enero-febrero). “Powerlessness, empowerment and health: implication for the health promotion programs” En: American journal of health promotion, vol.6, núm.3, págs. 197 – 205. Waters, E.; Doyle, J.; Jackson, N.; Howes, F.; Brunton, G. y Oakley, A. (2006). “Evaluating the effectiveness of public health interventions: the 59 Ligia de Salazar role and activities of the Cochrane Collaboration”. En: J Epidemiol Community Health, vol.60, págs 285-289. Weiss, C. (1972). Evaluation research. Methods of assessing program effectiveness. Prentice-Hall Methods of Social Science Series. Prentice-Hall. Weiss, C. (1999). “The Interface between Evaluation and Public Policy,” En: Evaluation, vol. 5, núm. 4, pp. 468 – 486. World Health Organization [WHO], (1986, 21 de noviembre). Ottawa Charter for Heatlh Promotion. First international conference on 7 health promotion. Ottawa. World Health Organization [WHO], (2001). Evaluation in Health Promotion. Principles and Perspectives. Editado por: Irving Rootman et al. WHO Regional publications, European Series, No 92. 60 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas II. Identificación y formulación de la pregunta de evaluación PRESENTACIÓN En este capítulo hacemos referencia a uno de los aspectos críticos en la evaluación: la pregunta que se pretende responder. Los temas abordados se orientan a brindar insumos para comprender los conceptos y criterios relacionados con la selección y formulación de la pregunta de evaluación de políticas y programas. En este capítulo exploramos los principales desafíos y las estrategias para formular preguntas relevantes e investigables, reconociendo que hay un rango amplio de factores políticos, contextuales y técnicos, que influencian esta decisión. Debemos considerar que cada intervención puede dar lugar a diferentes preguntas de evaluación. Al igual que la definición de la pregunta de evaluación, otros aspectos relacionados han sido tema de reflexión y debate: la definición de los objetos y sujetos de evaluación, las variables e 61 Ligia de Salazar indicadores para comprender, medir o valorar el éxito o efectividad de las intervenciones, los enfoques metodológicos para responder a la pregunta, la articulación entre investigación y política, y la relación entre evaluadores y tomadores de decisiones. En fenómenos sociales complejos, como son la mayoría de intervenciones en salud pública y promoción de la salud, donde las adaptaciones a condiciones específicas de cada contexto pueden significar cambios en la estructura conceptual de la intervención y en su implementación, hay un riesgo grande de que no se documenten estos cambios ni se tenga consciencia de ellos y, por tanto, que la pregunta de evaluación se oriente a evaluar lo que no se ha implementado. Todos estos aspectos están íntimamente relacionados, por ello la formulación de la pregunta no puede verse aislada de los otros componentes de la evaluación. 62 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas INTRODUCCIÓN La pregunta de evaluación está relacionada con el cumplimiento de los objetivos de la intervención, al igual que con la calidad del diseño e implementación y sus resultados. También hay preguntas que no pueden responderse porque no corresponden a los objetivos de la intervención, con el grado de implementación; o con resultados probables de alcanzar al momento de evaluar (horizonte temporal). Es frecuente que no se tenga interés en resultados intermedios sino resultados finales los cuales a menudo son difíciles de obtener a corto plazo. Un ejemplo de este hecho es que la construcción de capacidad en promoción de la salud y el cumplimiento de principios y valores que la impulsan no sean considerados, bien sea porque no son de interés de los involucrados, o porque son difíciles de medir. Finalmente, es usual que se formulen preguntas de evaluación que responden sólo a intereses de los investigadores. Hay poco interés por responder a preguntas que contribuyan a crear teoría alrededor de la salud pública y la promoción de la salud, al igual que obtener información sobre condiciones necesarias para hacer exitosas y replicables estas intervenciones. 63 Ligia de Salazar La pregunta de evaluación, más que un requerimiento técnico Para muchos la pregunta de evaluación ha sido considerada sólo como un aspecto técnico olvidándose que éste debe estar al servicio y ser coherente con la intencionalidad de la evaluación y con las necesidades de los usuarios de la evaluación. Desde esta perspectiva política de la evaluación se identificarán los criterios para juzgar el éxito o efectividad de la intervención. En ese sentido, habrá que definir y negociar con los usuarios los resultados de la evaluación, cuál es su interés: identificar si la inversión valió la pena a la luz de los objetivos e impactos alcanzados; establecer asociaciones causales; medir, describir y valorar la asociación entre variables alrededor de indicadores para juzgar de éxito y fracaso; comprender las razones de los cambios del protocolo inicial según el contexto en el cual se implementa y evalúa la intervención. Hay diversos aspectos por explorar en este sentido, tales como: ¿Quiénes son los usuarios principales de los resultados de la evaluación?. ¿interesan a los usuarios de la información los resultados intermedios?. Cuando hay varios usuarios, ¿cómo decidir quiénes son los prioritarios?. La evaluación no puede responder al mismo tiempo a varias preguntas con diferente alcance. ¿Cuáles son los criterios para valorar el éxito de la intervención, y quién los define? ¿Se espera que la evaluación contribuya a crear y a mejorar la teoría? ¿Es la evaluación una herramienta de investigación que sirve para apoyar el proceso de toma de decisiones o para apoyar decisiones que ya se han tomado?; ¿nos referimos a efectividad del proceso para construir capacidad o estamos interesados en el impacto y efectos de la intervención? ; ¿son las anteriores categorías de análisis parte de un continuo o son categorías de análisis independientes?; ¿qué tan estandarizable, útil y generalizable debe ser la evidencia de efectividad en promoción de la salud? ¿Cómo hacer corresponder las preguntas de evaluación con los intereses de los usuarios, sin perder relevancia y validez? 64 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas La pregunta de evaluación debe surgir del consenso entre los involucrados con el fin de motivarlos para lograr una activa participación en las diferentes etapas del proceso de evaluación. Este consenso es un proceso de negociación, para lo cual se han creado diferentes metodologías. Las preguntas que se refieren al proceso de implementación de la intervención y resultados intermedios pueden ser identificadas y refinadas con la información obtenida del análisis de la práctica, para lo cual se han propuesto técnicas como la documentación y sistematización de experiencias, el mapeo de resultados, la síntesis realista, la evaluación participativa, evaluación responsable, entre otros, que serán descritas en detalle en el siguiente capítulo sobre enfoques metodológicos. 1. Identificación y formulación de la pregunta de evaluación Una pregunta de evaluación pobremente formulada trae consecuencias no solo en el diseño del estudio y los resultados sino que puede repercutir negativamente en la salud actual y futura de la población beneficiaria, por las decisiones que de ella se deriven. Por tanto, las consecuencias de su selección son de orden político, social, técnico y ético. Definición teórica y operativa de la intervención evaluada Potvin, Haddad and Frohlich (2001), han afirmado que la formulación de la pregunta de evaluación exige una comprensión integral de la intervención o del programa que se pretende evaluar. Si bien en el capítulo I se hizo alusión a este tema, es válido repasar algunos conceptos sobre el alcance de las intervenciones en salud pública y promoción de la salud. Los nuevos desarrollos teóricos y propuestas de acción en salud poblacional incorporan la complejidad de los cambios sociales y refuerzan la importancia de actuar no sólo en desmedicalización y reorientación de servicios de salud sino en la esfera del desarrollo local, la equidad, el empoderamiento y los derechos humanos. 65 Ligia de Salazar Uno de los aspectos a tener en cuenta cuando evaluamos estas intervenciones es la naturaleza cambiante del contexto, el cual se entenderá como el escenario en el que la intervención es implementada y donde interactúan las condiciones políticas, sociales y culturales que influencian el desarrollo y resultados de la intervención. Es precisamente este carácter dinámico del contexto, y por ende de la intervención, lo que demanda un conocimiento permanente del proceso de implementación a fin de formular preguntas que correspondan a la intervención real en la práctica, y no solo con la que inicialmente se planificó. Intereses de los usuarios La pregunta de evaluación debe responder hasta donde sea posible a intereses y preocupaciones de los principales usuarios de la información, incluidos formuladores de políticas, gerentes, proveedores de servicios y beneficiarios con la intervención (Guba y Lincoln, 1981, 1985, 1989; Stake, 1975, Stake y Abma, 2005). Se ha reconocido igualmente, la importancia de la participación de la personas que están cerca de la intervención (Earl et al., 2001; Jara, 2000; Francke y Morgan, 1995; gobierno de Chile, 2004; De Salazar, 2004 ). Propósito de la evaluación Adicional a definir y caracterizar la intervención, es necesario que los interesados en la evaluación logren consenso acerca del propósito real de ésta: ¿qué exactamente debe ser evaluado?, ¿debe orientarse la evaluación al diseño, al proceso de implementación, al impacto o a los resultados?, ¿cuáles son las variables e indicadores para valorar el éxito? Las respuestas a estas preguntas facilitarán el proceso de identificación y formulación de la pregunta de evaluación. Existen muchas razones por las cuales realizamos una evaluación, entre las que están el interés científico, la justificación de una decisión tomada, la necesidad de fundamentar decisiones relacionadas con la suspensión, la extensión o el reemplazo de una intervención, las exigencias de agencias financiadoras y el mejoramiento del proceso de implementación de la intervención. Esta última intencionalidad de la 66 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas evaluación es abordada por Smutylo (2001), al abogar por una evaluación cuyo interés se centra en el mejoramiento de la intervención más que en probar la asociación entre intervención y resultados. La pregunta de evaluación se formula según los anteriores intereses y de ella depende el enfoque metodólogico y el diseño de estudio que se utilice, tema que será abordado en el capítulo III. Criterios para juzgar el éxito o el fracaso de las intervenciones El éxito o efectividad de una intervención se valora con la medición, la descripción y la valoración de variables (indicadores) y el establecimiento de asociaciones (atribución) entre los cambios o productos observados como consecuencia de la intervención. Se indaga por información que dé cuenta del logro de los objetivos de la intervención. Autores como Ray y Mayan (2001), han discutido aspectos políticos y éticos relacionados con la evaluación de efectividad con preguntas como: quién determina qué se cuenta como evidencia de que algo funcionó y cuáles son los indicadores apropiados para juzgar la efectividad. Otros autores (WHO, 2001) llaman la atención sobre la necesidad de incluir no sólo indicadores de efectividad sino indicadores que den cuenta del proceso que dio origen a los resultados. Esta información reviste gran importancia para comprender las intervenciones para incrementar la relevancia de la información, al igual que la responsabilidad local para implementar las recomendaciones de la evaluación. Es probable que una intervención no sea exitosa al momento de ser evaluada porque no se han cumplido los objetivos; pero produce señales de que está en el proceso de conseguirlo, lo que se evidencia en indicadores de construcción de capacidad y otros resultados intermedios. Contexto de la intervención y viabilidad Para definir preguntas relevantes, es necesario un profundo conocimiento sobre el contexto en el cual las intervenciones tienen lugar y son evaluadas. La información del contexto incluye: ciclo de vida de 67 Ligia de Salazar la intervención, grado de aceptación de diferentes interesados (tanto beneficiarios como tomadores de decisiones), la vigencia de los supuestos y hechos que dieron origen a la intervención, las políticas actuales que influencian el éxito de la intervención, y el interés por continuar el programa. La literatura muestra un creciente interés por articular conocimiento, política y acción. Los países en desarrollo recientemente han mostrado interés por trabajar más de cerca con los formuladores de políticas y el público en general, a fin de hacer uso de los resultados de las investigaciones. Para el logro de este propósito se recomienda responder a preguntas complementarias de interés para estos públicos. En promoción de la salud, más que en cualquier otra iniciativa de salud poblacional, el contexto está estrechamente ligado al concepto y la valoración de evidencia y efectividad de intervenciones. Hay divergencia entre diversos autores en la influencia Otros elementos para el del contexto en la búsqueda de la evidencia y debate: ¿Qué tan útil y efectividad de intervenciones. Según Lomas relevante es la estandariza- (WHO, 2006), la evidencia científica puede ción de intervenciones que ser categorizada como “libre del contexto” hayan mostrado evidencia (verdad absoluta) y “sensitiva al contexto”. de efectividad? ¿Cómo dar Oxman (WHO, 2005), argumenta que toda cuenta de especificida- evidencia es sensitiva al contexto, dado que des y complejidades de los todas las observaciones son realizadas en contextos en los diferentes uno específico. Esta publicación adopta esta territorios y poblaciones? última posición, además de las razones da¿Quiénes son los tomado- das, por la naturaleza social y política de la res de decisión? ¿Cuáles promoción de la salud. Este tipo de evidencia son sus intereses y necesi- es plural y, por tanto, el conocimiento local debe ser triangulado con otros enfoques indades? vestigativos. La racionalidad y las perspectivas con que los evaluadores valoran las intervenciones no necesariamente corresponden a los tomadores de 68 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas decisiones; tampoco el significado de evidencia es el mismo para ellos. Los financiadores y las agencias de financiamiento pueden tener mayor interés en conocer los resultados y los beneficios que trae la intervención para grupos especiales. Las preguntas de los financiadores tienden a concentrarse en los beneficios desde la perspectiva de la sociedad, para así ubicar recursos financieros y humanos (PAHO, 2007). ¿Cómo adaptar las preguntas de evaluación a los intereses de los usuarios sin perder relevancia y validez? La respuesta a esta pregunta es: a través de la negociación. Tanto en la negociación de la pregunta como en el desarrollo de la evaluación, el evaluador asume el papel de facilitador, interpretador y generador de condiciones para la interacción y negociación entre participantes en un ambiente de compartir y aprender. Viabilidad y factibilidad de lograr o alcanzar los objetivos de la evaluación La evaluación está influenciada, entre otros aspectos, por la disponibilidad y calidad de la información que la orientan, para responder la pregunta, al igual que la disponibilidad de recursos, por la urgencia con que se necesitan los datos, y por el tipo y precisión que se busca con la información. Para aquellos que utilizarán los resultados de la evaluación para tomar decisiones sobre la continuidad, la extensión o la suspensión de la intervención, la información sobre el impacto y sus resultados finales son importantes. Este no es el caso de aquellos que implementan la intervención, dado que no es recomendable esperar hasta el final para tener resultados. Por ello, las preguntas que den cuenta del desempeño a través de resultados intermedios, son muy importantes para tomar decisiones orientadas a mejorar la viabilidad y calidad de la implementación de la intervención. 2. Tipos de pregunta Como ya se indicó, la pregunta es un insumo crítico para definir el proceso evaluativo, por tanto, esta tarea debe ser producto de la concertación y la negociación de intereses entre los usuarios potenciales de la 69 Ligia de Salazar información. Las variables y los indicadores de evaluación convierten la pregunta en aspectos concretos, medibles y específicos. Estas dos tareas son los referentes de análisis para hacer ajustes o propuestas alternos en relación con el alcance de la evaluación y su orientación metodológica. Hay que tener en cuenta que la cantidad de variables no garantiza la precisión y la representatividad de la información producida. Una vez identificadas las variables, debe descomponerse en características o atributos más simples, lo que hace que sean más fáciles de medir. Esto es lo que se conoce como operacionalización de las variables, lo que implica pasar de variables generales a intermedias y de allí, a indicadores. La pregunta de evaluación responde a diferentes momentos de la vida de un proyecto, al igual que a distintos intereses según los usos que se quiera dar a los resultados. Lo importante es estar claro sobre qué es evaluable en un determinado momento, para qué se quiere la evaluación, quiénes serán los usuarios de la información y qué uso se hará de ella. Un apropiado marco lógico, al igual que un proceso de documentación y sistematización de la intervención, brindará las bases para soportar la respuesta a esta pregunta, y dará luz sobre el alcance de la evaluación y su contribución al mejoramiento de la teoría y la práctica en promoción de la salud. Es frecuente que los interesados en la evaluación y los tomadores de decisiones deseen evaluar aspectos que rebasan las intenciones iniciales o el objetivo de la intervención; en este caso hay que aclarar sus alcances reales y recurrir al perfil del programa (marco lógico). El evaluador debe analizar si la pregunta de evaluación es factible de responder; es decir, valorar previamente la viabilidad técnica, los recursos y el tiempo disponible para realizar la evaluación y tener en cuenta que la pregunta deberá ser concertada con los tomadores de decisiones, de manera que la información que se produzca también responda a sus intereses, sea útil para sus propósitos y contemple la exploración de los beneficios que se quieren demostrar. 70 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Hay al menos cinco tipos de preguntas interrelacionadas y ligadas a la producción de evidencias para actuar: • Las que tratan de averiguar el problema para identificar “si algo debe hacerse”. • Las que tratan de averiguar “qué debe hacerse”: identifican la intervención. • Las que tratan de averiguar “cómo debe resolverse el problema”: definen el marco lógico de la intervención. • Las preguntas que tratan de conocer si la intervención funcionó o si fue efectiva: exploran la rigurosidad de los diseños evaluativos para atribuir los resultados a la intervención. • Las preguntas que tratan de encontrar explicaciones a los resultados: ¿qué hizo que la intervención funcionara? Tendencias e interacciones de los factores que influencian los resultados, etc. • Las dos últimas categorías de preguntas se relacionan con la investigación evaluativa. Se parte del supuesto de que las tres primeras preguntas se apoyan en otros tipos de estudios de investigación que tienen como objetivo definir los problemas, Aspectos claves para definir la pregunta de evaluación • Objetivo, recursos, resultados intermedios y finales, e indicadores de evaluación de la intervención (marco lógico). • Etapa en que se encuentra la intervención, intereses de los involucrados o perspectiva de los interesados • Disponibilidad y acceso a información de calidad • Factibilidad de responderla: tiempo y recursos • Contexto donde se desarrolla la intervención • Presencia de otras intervenciones con objetivos similares • La población a la que se orienta la intervención • No se podría evaluar el efecto o los resultados sobre poblaciones en las que no se intervino 71 Ligia de Salazar encontrar asociaciones entre variables de interés en condiciones “ideales” controladas, y crear teoría. En este capítulo se hará énfasis en las dos últimas categorías de preguntas: la primera se refiere al proceso de implantación de la intervención y a los resultados de ese proceso en términos del desempeño de la intervención y los productos intermedios relacionados con la construcción de capacidad para lograr el objetivo final. Interesa en este caso identificar las características del ciclo de vida de la intervención, las interrelaciones entre actores, los dinamizadores y limitantes del cambio, los cambios al protocolo inicial, la razón de ellos, la influencia del contexto y los resultados progresivos (construcción de capacidad). La categoría de preguntas sobre proceso y desempeño de la intervención indagan sobre información relacionada con el qué, el cómo y el por qué, todo desde la perspectiva de los involucrados en la intervención: usuarios, proveedores de servicios y tomadores de decisiones. Los cambios en esta categoría se relacionan más con la construcción de capacidad individual, colectiva e institucional para responder a los problemas de salud y sus determinantes. Existen varias herramientas como la documentación y sistematización de experiencias, la evaluación participativa y el mapeo de resultados, los cuales ayudan a identificar este tipo de preguntas (Jara, 2000; Francke y Morgan, 1995; Gobierno de Chile, 2004; De Salazar, Díaz y Magaña, 2002). La segunda categoría de preguntas se refiere a la efectividad de la intervención o programa; hay interés en conocer si la intervención funcionó y si cumplió los objetivos para los que fue creada. La evaluación de efectividad debe considerar, entre otros, el interés por conocer si la intervención funcionó y si alcanzó los objetivos para los que fue creada. Ella responde a ¿qué?; ¿qué tanto y cómo?, ¿dónde y a quién? Igualmente da cuenta de la asociación entre intervención y resultados a través de los indicadores de éxito, y el diseño investigativo para definir si los resultados pueden ser atribuidos a la intervención. 72 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas El paso preliminar para la definición de preguntas es revisar el modelo teórico (marco lógico) del proyecto y explorar con los grupos involucrados sus intereses en la evaluación. Una vez elaborada una relación de resultados esperados para el logro de los objetivos y propósitos del programa, se precisan las primeras listas de aspectos que se deben evaluar. Criterios de selección de la pregunta La formulación de las preguntas de evaluación está orientada por varios criterios estrechamente relacionados: • El consenso: Las preguntas seleccionadas deben ser producto de consenso luego de someter a consideración del grupo de la evaluación, las preguntas presentadas por cada participante. • La relevancia: Las preguntas deben orientarse a explorar aspectos relevantes y de prioridad para los grupos de interés y para el programa en general en el contexto de los referentes teóricos, estratégicos y operativos del mismo. • La factibilidad de investigarlas: Se refiere a la posibilidad de contestarlas, al igual que considera el horizonte temporal de la intervención. • La integralidad: Capacidad de las preguntas para abordar las situaciones de forma sistémica, lo que permite explorar los insumos, el proceso y los resultados de la situación sujeto de análisis en el ciclo de vida del programa o intervención. • La coherencia y utilidad para la toma de decisiones: Su contribución para encontrar respuestas para que los tomadores de decisiones adquieran más y mejores insumos. 73 Ligia de Salazar BIBLIOGRAFÍA Benjamin, K.; Perfetto, E. y Greene, R. (1995). ����������������������������� “Public policy and the application of outcomes assessments: Paradigms vs politics”. En: Medical care, vol. 33, núm.4, págs AS299-306. Brewer, G. y de León, P. (1983), Foundations of policy analysis. Homewood, IL:Dorsey. De Salazar, L., Díaz, C., Magaña, A.( 2002), Municipios y Comunidades Saludables. El reto de la Evaluación, Cali, Colombia. CEDETES, Universidad del Valle. De Salazar, L. (2004). “La Sistematización de Experiencias en Promoción de la Salud”. En: Evaluación de Efectividad en Promoción de la Salud. Guía de Evaluación Rápida, Cali, Colombia. CEDETES – Universidad del Valle. Earl, S.; Carden, F. y Smutylo, T. (2001). Outcome mapping: building learning and reflection into development programs, IDRC. Francke, M. y Morgan, M. (1995), La sistematización: Apuesta por la generación de conocimientos a partir de las experiencias de promoción. Lima, Materiales didácticos No 1. Escuela para el desarrollo. Gobierno de Chile, Programa Orígenes (2004), Estudio sistematización participativa de experiencias de salud intercultural en las comunidades Mapuche y establecimientos de salud existentes en las comunas focalizadas por el programa desarrollo integral de comunidades indígenas. 74 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Guba, E. G. y Lincoln, Y. S. (1981). Effective evaluation. Beverly Hills, Sage. Guba, E. G., y Lincoln, Y. S. (1989). Fourth generation evaluation, Beverly Hills, Sage. Jara, O. (2000), Tres posibilidades de sistematización: comprensión, aprendizaje y teorización, sistematización de experiencias, aportes. Bogotá, Dimensión educativa. Lincoln, Y. S., y Guba, E. G. (1985), Naturalistic inquiry, Beverly Hills, Sage. Pan American Health Organization, PAHO, (2007). Guide to Economic Evaluation in Health Promotion. Washington, PAHO. Potvin, L.; Haddad, S.; y Frohlich, K.L. (2001). “Beyond Process and Outcome Evaluation: A Comprehensive Approach for Evaluating Health Promotion Programes”. En: Rootman, I. et al. (edits.). Evaluation in Health Promotion. Principles and Perspectives. Copenhague: WHO Regional publications. European series, núm.92, págs.45-62. Ray, L. D. y Mayan, M. (2001). “Who Decides What Counts as Evidence?” En: Morse, J. M. ,Swanson, J.M. y Kuzel, A.J. (edits.), The Nature of Evidence in QualitativeRresearch, Thousand Oaks, Sage, págs 50–73. Smutylo, T. (2001), Impacto latente, atribución oculta: Cómo superar las amenazas al aprendizaje en los programas de desarrollo, Unidad de Evaluación, Ottawa, Canadá. Centro Internacional de Investigaciones para el Desarrollo, IDRC. Stake, R. E. (1975), “To evaluate an arts program” En: Stake, R.E. (edit.), Evaluating the arts in education: a responsive approach, Colombus Ohio, Merrill, págs 13–31. Stake, R. E. y Abma, T. A. (2005), “Responsive evaluation” En: Mathison, S. (edit.), Encyclopedia of evaluation. Thousand Oaks,Sage, págs 376–379. World Health Organization (WHO) (2001), Evaluation in Health Promotion. Principles and Perspectives, WHO Regional publications, European series, No 92, Rootman, I. et al. (edits.). World Health Organization (WHO) (2005, 10–12 octubre), Bridging the “Know–Do” Gap Meeting on Knowledge Translation in Global Health. Geneva, Switzerland, WHO. 75 Ligia de Salazar 76 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas III. Enfoques metodológicos para la evaluación de políticas y programas en salud pública y promoción de la salud PRESENTACIÓN En este capítulo se analizarán el alcance, el desarrollo y la práctica de la investigación evaluativa en el contexto de toma de decisiones, que le permitirán al lector analizar y comprender aspectos críticos para producir, juzgar y usar información sobre el desempeño, el impacto y la efectividad de las intervenciones en salud pública y la promoción de la salud. Se abordarán enfoques metodológicos para evaluar la efectividad e impacto de intervenciones cuya naturaleza compleja demanda aproximaciones teóricas y abordajes metodológicos que den cuenta de ella, sin detrimento de la calidad y rigurosidad que cada diseño exige. No sólo es probable, sino deseable, que después de la lectura de este capítulo surjan más preguntas de las que el lector tenía inicialmente, pero se espera que precisamente, esto sea el aliciente para continuar en la búsqueda de la teoría para fundamentar la evaluación de dichas intervenciones, al igual que de opciones metodológicas más acordes con la realidad y los desafíos que plantea la práctica de la salud pública desde la perspectiva de la promoción de la salud. 77 Ligia de Salazar 78 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas INTRODUCCIÓN En este capitulo usted encontrará una amplia discusión sobre los aspectos críticos para seleccionar los enfoques metodológicos y las técnicas para responder a la pregunta de evaluación, teniendo en cuenta tanto la naturaleza de la intervención como los intereses y expectativas que se tengan con la evaluación, plasmados en la pregunta. Varios aspectos interrelacionados influencian la decisión sobre el diseño de estudio y los enfoques metodológicos y las técnicas para evaluar la efectividad e impacto de iniciativas en salud pública y promoción de la salud: la naturaleza y el alcance de la intervención que se evaluará; el propósito y el alcance de la evaluación; la pregunta que se desea responder; el tiempo y los recursos para contestarla y el tipo de información requerida para que los resultados de la evaluación sean útiles; y, finalmente, un aspecto de considerable importancia: el principio ético. Según House (1981), los enfoques cuantitativos tienden a hacer hincapié en los aspectos metodológicos y, en concreto, a hacer de las técnicas cuantitativas el paradigma de la “calidad” en evaluación. Por 79 Ligia de Salazar el contrario, las corrientes cualitativas -a partir de la constatación de la naturaleza eminentemente política de la evaluación- suelen enfatizar en los aspectos éticos del proceso de investigación, en ocasiones incluso en detrimento de las cuestiones metodológicas. En este capítulo se describirán los aspectos relacionados con las fortalezas y las limitaciones de diferentes enfoques en relación con la credibilidad, la oportunidad, la relevancia y la posibilidad de reproducir los resultados; con las ventajas y las desventajas de combinar métodos y técnicas de evaluación; y con las maneras de conducir la evaluación en circunstancias específicas, como disponer de escasos recursos y tener la necesidad de producir resultados a corto plazo, sumado a las diferentes perspectivas e intereses que los usuarios tienen de los resultados. Los enfoques metodológicos abordados en este capítulo incluyen, en primer lugar, aquellos que intentan responder interrogantes sobre el proceso de implantación y desempeño de la intervención y, segundo, interrogantes que den cuenta de los resultados de la intervención, en cuanto a efectividad, impacto y efectos no deseados. En ese sentido, los diseños y los métodos de investigación que usan información cuantitativa y cualitativa serán tema de análisis y de reflexión como insumo para la práctica de la evaluación. Se espera que el lector tenga los elementos para identificar el diseño más apropiado para responder a la pregunta de evaluación sobre efectividad e impacto de las políticas, proyectos y programas en salud pública y promoción de la salud, y que valore las ventajas y desventajas de diferentes enfoques, según las teorías para la evaluación de intervenciones complejas y las evidencias en salud pública. 1. Fundamentación Intencionalidad y alcance de la evaluación Recapitulemos sobre la intencionalidad de la evaluación: Antes de iniciarla es necesario identificar y comprender su perspectiva y propó80 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas sito, los cuales pueden estar orientados, La evaluación ayuda a develar entre otros fines, a: valorar algo que se las contribuciones no visibles, está haciendo con el objetivo de obtener en un esfuerzo por mejorar, información para mejorar y orientar el en lugar de probar, y de enproceso de implementación de la interventender, en lugar de señalar ción y aumentar su viabilidad; justificar responsables. una decisión tomada; estimar los resultados -efectividad y beneficios- de las intervenciones; construir un proceso de aprendizaje sostenido en torno a la teoría de la intervención desarrollada; aportar al conocimiento en relación con la epistemología de este tipo de intervenciones. Uno de los principales desafíos de la evaluación es desarrollar métodos que valoren procesos y resultados en su dimensión política, social y económica y en su contribución a la calidad de vida de las poblaciones, más allá de los resultados numéricos. Se necesitan evaluaciones acordes con los requerimientos y las condiciones de los tomadores de decisiones y que involucren otros actores como las comunidades y los gobiernos, tradicionalmente ajenos a esta actividad. Como se comprenderá, además de establecer asociaciones plausibles entre intervención y resultados, la evaluación se convierte en un proceso de aprendizaje en el cual se contribuye al éxito del programa o de la intervención. La evaluación es vista como un medio para negociar y fortalecer la capacidad para tomar decisiones y, según Smutylo (2001), es generadora de conocimientos y no contribuyente de méritos. Por otro lado, la evaluación es un componente crítico del proceso de gerencia y gestión de políticas, programas y proyectos, y como tal, debe estar articulada con la gerencia de las instituciones que lo impulsan. En esta medida, la evaluación no finaliza con un informe; más bien cumple su ciclo cuando se logra que la información y las lecciones que arroja esta actividad sean consideradas en las decisiones para mejorar la intervención o para decidir su finalización o extensión. Igualmente, cuando los resultados son tenidos en cuenta para validar o formular nuevas hipótesis sobre la teoría vigente. 81 Ligia de Salazar Por lo anterior, la evaluación tiene una serie de ciclos interrelacionados, independientes pero complementarios, que tratan de responder a preguntas diferentes y tienen diversos intereses y, por tanto, consideran distintos énfasis y son soportados por diseños metodológicos que responden a sus intereses. La articulación de los ciclos de la evaluación es entendida como la construcción progresiva de evidencias con el fin de obtener información confiable sobre la relevancia de las áreas de intervención, la eficiencia y desempeño en la implementación del programa, la efectividad de las intervenciones y el impacto en la salud de la población. Perder esta visión de conjunto no sólo fragmentaría el análisis de la información, sino que impediría visualizar las relaciones entre los componentes y variables del proceso, al tiempo que sería un obstáculo para hacer un mejor uso de la información que arroja cada ciclo. Para establecer la evidencia se necesita no solamente que los indicadores de efectividad sean pertinentes con la intervención, sino que el método de investigación utilizado para la evaluación sea también el apropiado. Los diseños metodológicos, si bien varían según las preguntas que nos queremos responder, deben ser considerados como parte de un continuo que da cuenta de la fundamentación teórica del programa o intervención, el proceso para implementarlo y los resultados e impactos a corto, mediano y largo plazo. La metodología se compone de una combinación de métodos cuya validez depende tanto de la complejidad de los supuestos teóricos como de la confiabilidad de los datos. Estos asuntos serán retomados a continuación. Establecimiento de causalidad y evidencia de efectividad en intervenciones complejas • Significados prácticos del concepto de evidencia y efectividad: Como evaluadores debemos tener en cuenta que diversos factores entran en juego cuando las definiciones operativas de las variables son formuladas, y cuando de juzgar evidencia y efectividad se trata. 82 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Un mismo concepto puede tener diferentes significados y alcances; igualmente, se pueden utilizar distintos instrumentos para medir el mismo concepto y utilizar diversas fuentes de información. Por otro lado, tendemos a confundir la efectividad con la evaluación y la evidencia. La evaluación de intervenciones en salud pública y promoción de la salud está identificada con el concepto de complejidad planteado y con la necesidad de establecer asociación causal entre la intervención y los resultados para atribuir estos últimos a la intervención se enfrentan a desafíos metodológicos que amenazan su plausibilidad y confiabilidad. En estos casos se debe tener en cuenta: • Complejidad de las intervenciones sociales y su plausibilidad para producir los resultados esperados, bajo la influencia de la variable “tiempo” y del contexto. Esta complejidad se debe a que las intervenciones en promoción de la salud Las intervenciones compleestán orientadas hacia comunidades o jas responden a una teoría grupos con dinámicas propias, que no o conjunto de teorías, las necesariamente son reproducibles; son cuales involucran la acción frecuentemente multipropósito porque de personas, y consisten hay necesidad de intervenir en varios en una cadena de pasos o niveles o componentes; tienen más de procesos los cuales no son un objetivo dado que pretenden lograr lineales por estar inmersos cambios en varios niveles: desde cam- en sistemas sociales y estar bios en comportamiento hasta cambios sujetos a modificaciones estructurales, políticos y sociales; el con- permanentes. texto tiene una fuerte influencia tanto en la intervención como en los resultados, y estos factores no siempre pueden ser controlados por los implementadores; presentan dinámicas e interacción entre variables no estandarizables; hay demanda de dichas intervenciones porque se evidencia su efectividad, soportada en resultados que, frecuentemente, son producidos a largo plazo. 83 Ligia de Salazar Cronbach nos invita a pensar en el mundo empírico. Lo que observamos será verdad o serán una serie de instrumentos que no necesariamente constituyen un efecto; observemos la respuesta o la consecuencia de una intervención realizada. A esto le llamamos raciocinio a partir de la intervención. El efecto no está en la lectura que hagamos de este instrumento, sino en la transformación de cómo se traduce esta lectura en algo significativo: un indicador. Es un “mantra” de la ciencia positivista y se ha tomado las ciencias de la salud. Lee J. Cronbach (1980) afirma que lo que tratamos de hacer como evaluadores, es vincular de manera significativa lo que pasa en una unidad a la intervención; es decir, vincular los objetos de la intervención -las personas en un determinado contexto- a la intervención, para estudiar lo que pensamos. Luego utilizamos la observación, la medida, el resultado y los indicadores para evaluar las consecuencias. • Causalidad: Diversos autores han reconocido que la evidencia es un concepto creado. La Organización Mundial de la Salud, OMS (2004), señala que la evidencia es sensitiva al contexto y no es estática. Este concepto según Potvoin ha estado ligado a la noción de causalidad; la mayoría de las veces la evidencia y la efectividad van de la mano para mostrar causalidad. • Concepto de evidencia: Para Potvoin (2007) la evidencia se construye a través de la relación entre la teoría, las observaciones empíricas y la práctica. Por eso tenemos que investigar y evaluar permanentemente, no para sumar experiencias, sino para fortalecer el fundamento teórico, para tener un conocimiento más completo y actualizado de los fenómenos estudiados, ya que la evidencia no se acumula. La autora plantea la distinción entre tres tipos de evidencias: evidencia empírica, evidencia teórica y evidencia basada en la práctica: 84 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas La evidencia empírica: Aplica la lógica inductiva; es una colección de observaciones que corresponden a unos criterios de disciplina; se acepta la premisa de que hay que tener un conocimiento disciplinario que nos permita suponer o predecir lo que va a pasar. La evidencia teórica: Indica que no hay necesidad de una asociación constante entre intervención y efecto, porque hay una interacción mayor con las situaciones. Es necesario mirar la teoría para desarrollar estas intervenciones y convertir la investigación en un aparato reflexivo para la intervención -como una manera de entender cómo funciona nuestro mundo-. La evidencia basada en la práctica: La evidencia desarrolla no porque se esté adaptando el conocimiento puro a una situación de la vida real, sino porque se está tratando de derivar un conocimiento que es importante. El conocimiento se produce en un ambiente práctico: es la práctica basada en la evidencia. La dificultad de esta práctica basada en la evidencia es saber cuál es la intervención. No nos dice cómo se hace la intervención y nosotros debemos pensar en qué vamos a intervenir y cómo vamos a intervenir. Generalmente, el cómo se puede derivar de un experimento controlado, pero hay diferencias entre la manera como se efectúa la práctica en un experimento bajo control, y la realidad. En los estudios evaluativos la ventaja de la evidencia basada en la práctica es que se soporta en el contexto. • Concepto de evidencia de efectividad en intervenciones complejas Haremos referencia a los aspectos teóricos y prácticos que fundamentan la discusión sobre el significado de evidencia en intervenciones complejas, como es el caso de la promoción de la salud. No es la intención crear un debate acerca del significado de evidencia en la promoción de la salud, ya que muchos autores se han referido a este tema (McQueen, D. y Anderson, L. 2000; Kemm, J. 2006; Marmot, M. 2004; Green, J. y Keith, T. 1999). 85 Ligia de Salazar La efectividad suele asociarse a la evidencia, y esta última se apoya en diseños epidemiológicos que se fundamentan en el cumplimiento de criterios para juzgar y validar la información producida: representatividad de la muestra, selección de grupos control, valoración de la efectividad según la fortaleza de asociaciones que se basan en pruebas de significación estadística, precisión de instrumentos de medición y control de factores de confusión, entre otros, criterios que no necesariamente se cumplen en las intervenciones descritas, y por tanto, pueden conducir a resultados errados. Si las anteriores condiciones no se cumplen, el evaluador deberá seleccionar otro método, aunque no se corresponda con los criterios para juzgar la evidencia según los enfoques positivistas. Otro aspecto importante a tener en cuenta es la validez externa de los resultados, o sea, la generalización de la evidencia. Se trata de generalizar y extraer experiencias y lecciones, a lo cual se le suman observaciones para que sea algo mayor, algo empíricamente generalizado. En este caso, estaríamos sumando evidencias al extraer una conclusión y tratar de extrapolarla, como se comprenderá por lo dicho anteriormente, pero esto no necesariamente aplica en todos los casos. Para Potvoin (2007) es un problema cuando aplicamos técnicas sofisticadas de análisis y nos centramos sólo en la proyección de números para producir estos resúmenes y conclusiones. Al hacer esto escondemos la otra realidad. De allí que Potvoin (2007) incite a contestar las siguientes preguntas: ¿Qué estamos comparando?, ¿qué estamos sumando?, ¿son unidades comparables y se pueden sumar? • Indicadores para juzgar cumplimiento de objetivos En ocasiones la evaluación se realiza por presión de los financiadores, quienes buscan evidencias de efectividad para justificar su inversión al seleccionar indicadores de éxito no apropiados, bien sea porque no son coherentes con el marco lógico de la intervención o porque no es tiempo de obtener esos resultados y se requiere un plazo mayor. 86 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Los indicadores deben ser vistos como hasta dónde los objetivos han sido alcanzados. En este punto, para efecto de la evaluación, autores como Brownson, Baker, Leet y Gillespie (2003) plantean que los indicadores no son objetivos numéricos per se y no deben ser confundidos con objetivos de programas y metas, que tienden a ser cuantificables de acuerdo con escalas y tiempo. El tipo de indicador seleccionado para valorar éxito (efectividad) influencia la selección del enfoque metodológico; por tanto, debemos hacernos la pregunta si un determinado diseño nos ayudará a evaluar la efectividad de la intervención, medida por los indicadores seleccionados, o mejor, cuál es el diseño más apropiado para valorar la efectividad o el éxito de la intervención. • La variable tiempo, como factor importante en la medición de evidencia de efectividad La plausibilidad para producir los resultados esperados está condicionada a la influencia de la variable “tiempo” y al contexto. Como fue señalado, el dinamismo de los procesos de cambio hace que, con relativa frecuencia, evaluemos una intervención que es diferente a la que se formuló inicialmente y, de igual forma, valoremos sus resultados sin tener en cuenta los factores que intervinieron para producirlos. Algunos autores llaman la atención sobre otro hecho en relación con la variable tiempo, y en especial cuando usamos medidas de prevalencia (tendencias) para monitorear cambios, al señalar que “las medidas de prevalencia son importantes, pero igual de importante es conocer su evolución en el tiempo” (Campostrini, E. 2007). Los enfoques metodológicos son influenciados por la variable tiempo y, por tanto, preguntas como: ¿cuándo se deben entregar los resultados de la evaluación, cuál es el horizonte de tiempo para visualizar los cambios, qué tipo de cambios se pueden producir en este tiempo, nos ayudan a tomar la decisión. 87 Ligia de Salazar 2. Desafíos metodológicos y políticos en la evaluación de la efectividad La evaluación de políticas, programas y tecnologías en salud ha enfrentado diversos desafíos para seleccionar los diseños investigativos y los métodos más apropiados para responder a la pregunta de evaluación. Esta situación se debe, en parte, a dos factores: primero, no hay claridad, en los evaluadores e interesados, en la información que arroja la evaluación sobre la naturaleza, propósito y alcance de la intervención; y segundo, unos y otros conocen y manejan diferentes enfoques metodológicos, los cuales abordan de manera distinta la forma en que se debe afrontar la situación estudiada, y llegan en muchas ocasiones a privilegiar el método que mejor se conoce, negando así otras posibilidades; por ejemplo, cuando se presenta la dicotómica discusión entre qué método, cualitativo o cuantitativo, es más válido para producir conocimiento científico. “La cantidad y la calidad son caras diferentes de la misma moneda, que aunque se refieren al objeto de conocimiento como al método en general se complementan y se relacionan”. (Cerda, G.H., 1994) En este sentido, lo importante es destacar la interacción que existe entre sujeto y objeto en la práctica investigativa, independientemente desde dónde se aborde, para otorgarle mayor peso al lugar epistemológico y no tanto a la forma en que se procede para producir conocimiento. El problema radica cuando se cree que la precisión y la confiabilidad de la información depende de la aplicación de un método en particular, y se deja de lado la discusión para comprender qué enfoque establece mejor la interacción sujeto- objeto, elección que se hará cuando se tenga claridad frente al objeto de estudio y su alcance. De esta manera, queremos plantear que esta pretendida oposición entre lo cuantitativo y lo cualitativo, más que ser una verdad empírica, ha sido una falsa idea, producto de planteamientos según diferentes 88 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas paradigmas y escuelas, “a veces con mucha resistencia para establecer compatibilidad y complementar las dos tendencias” (Cerda, G.H., 1994). Lo anterior nos lleva a afirmar que ningún método puede ser señalado como mejor o superior, sin antes analizarlo a la luz del propósito y el alcance de la evaluación, los resultados esperados, el financiamiento, el tiempo para ejecutar la evaluación, y el contexto (situación política, social, económica que puede influenciar el desarrollo de la evaluación y el uso de sus resultados). 3. Enfoques metodológicos Esta sección tiene como objetivo describir las principales características, fortalezas, limitaciones y usos de las herramientas metodológicas de evaluación, sin profundizar en aspectos técnicos de cada una de ellas, considerando que lo más importante es brindar elementos de reflexión y análisis para hacer una selección apropiada de los enfoques metodológicos. Características de los diseños de evaluación Validez, flexibilidad, adaptabilidad y utilidad de la información son características que deben estar presentes en cualquier diseño evaluativo de iniciativas con las características ya descritas. Por lo anterior, sugerimos la construcción de diseños, sin renunciar al objetivo de obtener información válida y confiable, dentro del marco teórico y las premisas descritas, que cumplan con las siguientes características de la evaluación: • Válida. La información que arroje la evaluación debe ser producto de diseños y métodos apropiados para la pregunta que se va a responder, a la naturaleza y ciclo de vida de la intervención, y guardando coherencia entre concepciones teóricas, marco lógico, grado de implementación de la intervención y criterios para valorar efectividad. 89 Ligia de Salazar • Útil y aceptable. para diferentes audiencias y actores clave, en especial, tomadores de decisiones, implementadores de la intervención y teóricos. • Resultado de un proceso de sucesivas aproximaciones. La evaluación será producto de una construcción sistemática para lograr la coherencia entre teoría, observación y práctica, con el fin de crear insumos para acercarse a los principios y valores que fundamentan la promoción de la salud y la salud pública y su práctica, y producir los insumos para orientar las políticas públicas. • Incluyente y participativa. Dado el carácter político y técnico de la evaluación, se requiere que los resultados respondan a las necesidades de los usuarios de la información, a través de estrategias que aseguren su participación en el ciclo de evaluación. • Viable y factible. Deben planificar evaluaciones que tengan en cuenta la infraestructura y los recursos disponibles, priorizar fuentes de recolección de información, y promover alianzas para hacer el uso óptimo de recursos. • Socialmente responsable. La actividad evaluativa debe cubrir la fase de difusión de la información y acciones de abogacía y gerencia social para utilizar los resultados en la toma de decisiones y en el mejoramiento de los programas. Para ser viable y realizarse con la periodicidad requerida, una evaluación tiene que incorporar en su diseño metodológico formas eficientes y confiables para obtener información, y para ello usar en lo posible la que ya existe. Un ejemplo son los sistemas de vigilancia epidemiológica, las estadísticas vitales, formas autóctonas de comunicación, relatos e informes de progreso de proyectos comunitarios, historias, casos, informes de monitoreo y evaluación. Los sistemas formales e informales de comunicación e información que hacen parte de la cotidianidad de 90 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas las comunidades e instituciones deben ser incorporados como insumo para documentar la experiencia. Basarse únicamente en el método o en la evidencia empírica para tomar una decisión es riesgoso; el método es muy importante, pero no es lo único. El mensaje es que cualquier decisión se ve afectada por un efecto interactivo. Basar una decisión en un solo resultado, sin tener en cuenta el contexto donde se produjo, es como usar una receta para el fracaso, porque en el mundo real hay muchas interacciones que afectan los mecanismos que tratamos de aislar en las investigaciones y que interactúan con el mundo real; en cualquier situación todas esas interacciones entran en juego. Por lo dicho, podemos deducir que la jerarquía de la evidencia que ha gobernado hasta este momento en los estudios evaluativos no necesariamente es coherente con los planteamientos teóricos y técnicos realizados. Si el interés está en identificar la efectividad de una intervención medida por sus resultados, el reconocimiento de que un sólo estudio es incapaz de dar cuenta de la complejidad de la evaluación de fenómenos sociales influenciados por una combinación de factores, dentro de un determinado contexto cultural y sociopolítico soporta la creciente demanda por crear enfoques de evaluación que utilicen análisis multinivel, que no se reducen a la adición de variables en una red de causación. Pawson (2001, 2002, 2003) recomienda el estudio total del sistema de relaciones entre las variables, y para ello sugiere dividir el programa o intervención en sus componentes: mecanismos, contexto y resultados. Los mecanismos se refieren a las formas en las cuales uno de los componentes produce cambios. Por su parte, el proceso es definido como la forma como los sujetos interpretan la estrategia de la intervención, conocida como mecanismos del programa y actúan conforme a ella. Y, finalmente, sistema relaciones interpersonales y sociales. Para facilitar la comprensión del material usaremos tres categorías de evaluación y los enfoques metodológicos para realizarlas: 91 Ligia de Salazar a. Enfoques metodológicos para comprender y valorar el proceso de implantación de la intervención b. Evaluación de efectividad - resultados c. Evaluación económica 3.1 Enfoques metodológicos para comprender y valorar el proceso de implantación de la intervención Hechos • La conexión entre causa y efecto no tiene inicio y puede que tampoco tenga un fin; el desarrollo de las políticas es continuo y está sujeto a cambios en su implementación, los cuales están estrechamente ligados al contexto. ¿Cómo la evaluación da cuenta de este hecho? • El proceso de implantación de la intervención es usualmente una caja negra sin develar. No hay información suficiente que dé cuenta de los factores que han influenciado la implementación de la intervención, en relación con la relevancia y la viabilidad del protocolo; el surgimiento de situaciones nuevas que modifican el contexto; los supuestos que no se cumplen y, finalmente, los cambios en la intervención como resultado de lo anterior. • La evaluación usualmente se orienta a valorar el cumplimiento de los objetivos finales, y más bien poco a explorar el desempeño de la intervención en cada una de sus fases: experimentación, implementación, generalización y declive. En cada una de éstas se responden preguntas diferentes y, por tanto, se usan enfoques metodológicos distintos para responderlas. • Frecuentemente nos enfrentamos a evaluar intervenciones que no necesariamente son las que planificamos. Hay cambio de protocolo como resultado de ajustes en el tiempo. Las intervenciones relacionadas con cambios sociales y del comportamiento están ligadas a contextos o coyunturas, las cuales escapan al control 92 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas del investigador; son altamente dinámicas y por tanto, además de la medición del problema, se requiere conocer la evolución e interacción de los mecanismos que subyacen a él, para poder comprender el alcance de los resultados. • La evaluación de proceso brinda insumos para crear una teoría sobre la promoción de la salud y la salud pública, para mejorar la intervención, identificar mecanismos que influencien el desempeño de la intervención y contribuir al logro de los objetivos, entre otros. Debate • Las intervenciones en promoción de la salud son complejas, hay adaptaciones que deben hacerse permanentemente por el dinamismo del contexto y por un conocimiento mayor de las asociaciones entre variables de estudio; no obstante, ello puede significar cambios en el marco lógico inicial de la intervención. ¿Cómo este hecho afecta el cumplimiento de las condiciones y los criterios para aplicar métodos epidemiológicos? • ¿Son útiles los marcos lógicos de la intervención?, ¿deben ser sujeto de evaluación?, ¿pueden y deben ser cambiados?, ¿cómo esto afecta la intervención y la evaluación? • No hay razón para evaluar la efectividad de las intervenciones cuando no hay certeza de que han sido implementadas apropiadamente. • En las evaluaciones no se estudia la interface entre teoría y práctica ni tampoco se tienen en cuenta aspectos sociales, territoriales, organizacionales ni políticos que influencien la adherencia al protocolo, al igual que los resultados. • La evaluación del proceso ayuda a responder ¿qué intervención estamos evaluando: la teórica (marco lógico) o la real?; y, por 93 Ligia de Salazar tanto, a replantear la pregunta de evaluación y los enfoques metodológicos para responderla. • ¿Podemos hablar de evidencia en la evaluación del proceso?; ¿la necesitamos? • Alcance de la evaluación del proceso: ¿comprender el proceso para implementar la intervención?, ¿valorar el desempeño de la intervención en la práctica? Desarrollos El interés de la evaluación de proceso se centra en el desempeño del proceso de implantación de la intervención; frecuentemente estudiamos el resultado de este último y no nos preocupamos por el proceso en sí mismo. Para este tipo de evaluación es importante considerar que el desarrollo, ligado a intervenciones en promoción de la salud, es visto como un proceso complejo, producido en circunstancias en las cuales un programa no se puede aislar de los diversos factores con los que tiene que coexistir ni de aquellas del contexto que lo influencian. De allí que autores como Stake y Abma (2005) aboguen por la inclusión de enfoques que den peso al término contribución, el cual implica condicionalidad (contextualización, más que atribución). La elección de los enfoques metodológicos para la evaluación del proceso está influenciada, entre otros, por el papel que asume el evaluador. Como fue indicado anteriormente, éste debe comportarse como intérprete y creador de condiciones para facilitar la interacción, la concertación y la negociación entre participantes en un ambiente colaborativo y de aprendizaje. A continuación se describen las diferentes metodologías que han sido desarrolladas para evaluar y comprender el proceso de implementación de la intervención. 94 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Herramientas metodológicas • Técnicas para la documentación y sistematización de experiencias Aunque la documentación y la sistematización no son enfoques metodológicos para la evaluación, sí son insumos importantes para ésta, porque ayudan a formular la pregunta de evaluación un proceso complejo que se desarrolla a partir de un conocimiento completo e integral de la intervención. La documentación de los procesos y la sistematización de las experiencias son herramientas que producen información clave para comprender el comportamiento de las variables asociadas a la implementación de la intervención, y para establecer correlaciones y asociaciones lógicas entre intervenciones y resultados. Dado que la mayoría de las veces las intervenciones en promoción de la salud y salud pública son de naturaleza dinámica y poco conocemos sobre el comportamiento e interacción entre las variables, se hace necesario e imperativo documentar y comprender este dinamismo, más que controlar estas variables, para entender las causas potenciales de la adherencia o no al protocolo de la intervención y sus resultados. Se requiere conocer cómo sucedió la intervención y por qué razón se realizó de la manera en que se dio. Es justo con esta intención que la documentación y la sistematización de experiencias permiten construir referentes comprensivos e interpretativos de la intervención, que aporten elementos para que la pregunta logre ser más pertinente y responsable de acuerdo con las características propias del contexto. La sistematización es un proceso de reflexión que pretende ordenar u organizar el proceso de construcción e implementación de la intervención, es decir, la experiencia. Se trata, así, de recuperar lo que los actores saben de la experiencia en la cual participan. Las interpretaciones que se producen sobre la experiencia y la práctica misma de los sujetos se asumen como premisas. Lo que se mira ahora son los significados que las acciones tienen para los actores que las promueven y los resultados 95 Ligia de Salazar de dichas acciones en sí, de acuerdo con los propósitos que ellos mismos establecieron. La sistematización ha sido considerada, igualmente, como una estrategia para descubrir y comprender los cambios en el protocolo de la intervención, su implementación y los beneficios de acuerdo con la percepción de los participantes y sus interacciones (De Salazar, L., Díaz, C., Magaña, A., 2002). Este ejercicio investigativo reconoce la naturaleza cambiante de las intervenciones y ayuda a hacer explícitas las razones del cambio. Permite entender la lógica y el sentido de los procesos y resultados de un programa o de una intervención, en el marco del contexto de su desarrollo. La documentación proporciona las herramientas necesarias para que el programa o la intervención pueda registrar y narrar la historia de su desempeño de principio a fin, y la sistematización brinda a quienes implementan una intervención un sistema permanente para reflexionar de manera holística y estratégica sobre cómo se consiguieron o se conseguirán determinados resultados, usando aquellos de la documentación. Los resultados de la documentación y la sistematización son insumos importantes que pueden ser usados por cualquiera de los tipos de evaluación que se describen a continuación para complementar la información que surge de la aplicación de otros enfoques metodológicos. El enfoque conocido como evaluación participativa, creado por la Organización Panamericana de la Salud, OPS, se expone en una guía para orientar el uso de esta metodología, en la cual se emplea un proceso de acopio, análisis e interpretación del proceso de implementación de la intervención, con una activa participación de quienes la implementan (OPS/OMS, 2005). • Mapeo de resultados Este enfoque se apoya en el hecho de que el desarrollo es un proceso complejo, compuesto de procesos paralelos; por tanto, es importante no sólo valorar los cambios, sino monitorear y evaluar las estrategias 96 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas y actividades y como ellas funcionan o como una única unidad. El mapeo de resultados se concentra en los alcances en lugar del impacto, aunque reconoce su importancia como la meta definitiva que los programas pretenden alcanzar. Con este enfoque se incrementan el valor y la atención dados a los resultados obtenidos por las contribuciones de aspectos previos al impacto. Otro enfoque que se relaciona con la sistematización es el llamado mapeo de resultados (Outcome Mapping) (Earl, S., Carden, F y Smutylo, T., 2001) desarrollado por el IDRC-CIID bajo el supuesto de que la complejidad del proceso de desarrollo hace difícil evaluar su impacto (atribución), que la evaluación debe estar al servicio del aprendizaje, y que es fundamental comprender sus contribuciones esenciales. Por otra parte, los autores de esta metodología señalan que el hecho de enfocar la evaluación en los impactos a largo plazo no necesariamente brinda el tipo de información y la retroalimentación que los programas requieren para mejorar su desempeño. Por estos motivos, el mapeo de resultados se concentra en los alcances en lugar del impacto, aunque reconoce su importancia como la meta definitiva que los programas pretenden alcanzar, como ya se dijo. Los indicadores del proceso de implementación son la cobertura, los facilitadores y las barreras para planificar e implementar una exitosa intervención; factores de contexto que influencian tanto la implementación como los resultados de la intervención. El mapeo de resultados reconoce que estas intervenciones son procesos complejos que van conformándose de procesos paralelos. Dicho enfoque no sólo sirve para entender los cambios que se producen en el entorno en el que se desarrolla un programa, sino que también sigue y evalúa las estrategias y las actividades de este último, a la vez que también sigue y evalúa la manera como funciona como una unidad organizacional. Como tal, el mapeo de resultados evalúa el programa o la intervención de manera integral, y parte del supuesto de que al programa en cuestión no le basta con estar al tanto de los resultados del 97 Ligia de Salazar desarrollo, sino que también tiene que saber los procesos que se han seguido para conseguirlo, y así conocer su propia efectividad interna. Un aspecto muy importante de este enfoque es que la pregunta de evaluación busca medir la contribución del programa con respecto a su visión inicial (por medio de sus socios directos), sin que se trate de saber si la visión logró convertirse en realidad o no. En otras palabras, la pregunta está dirigida a averiguar “¿quién hace qué? y ¿cómo?”. La visión representa el ideal que busca el programa y debe ser lo suficientemente amplia y motivadora como para mantener su importancia con el transcurso del tiempo, pese a las circunstancias cambiantes. • Evaluación participativa Se entiende como un conjunto de orientaciones para realizar un proceso de evaluación más amplio, que se centre en los procesos y en los cambios logrados en los territorios. Está dirigida a fortalecer la relación entre la planificación, la gestión y los procesos de evaluación; a ser una herramienta de referencia para tomadores de decisiones, especialmente a nivel municipal; facilitar que sus usuarios conozcan mejor su comunidad, comprendan la importancia de realizar evaluaciones y adquieran pericia en las mismas; a identificar señales de cambio, indicadores de procesos y avances, y está dirigida también a desarrollar habilidades de vigilancia social en la comunidad. • “Evaluación responsable” (Responsive evaluation) Definida como un enfoque de evaluación que genera evidencias sobre la efectividad de una intervención, la cual es valorada por resultados intermedios utilizando información cualitativa. Los criterios para evaluar la efectividad de un programa no se derivan solamente de las intenciones de los tomadores de decisiones, sino que incluyen un margen amplio de aspectos que provienen del mayor número de actores posibles (Guba y Lincoln, 1981; Lincoln y Guba, 1985; Guba y Lincoln,1989, Stake, 1975; Stake y Abma, 2005). 98 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas 3.2 Evaluar la efectividad de intervenciones complejas Hechos • Existen pocos estudios de evaluación de efectividad de intervenciones complejas. • Hay un limitado conocimiento y experticia sobre técnicas de análisis que involucran diferentes niveles de acción, como son los análisis multinivel. • Se aplican enfoques metodológicos que tienen credibilidad en revistas internacionales, aunque sean incoherentes con la naturaleza de intervenciones como las descritas. • En intervenciones que están pobremente diseñadas, hay dificultad para reconocer los indicadores de éxito de interés para tomadores de decisiones y para otras audiencias. • El juicio sobre la efectividad de la intervención se hace utilizando indicadores que no se relacionan con lo concebido e implementado. • Los indicadores de éxito están más asociados con las necesidades e intereses de los usuarios actuales de la información, que con el marco lógico de la intervención. Debate La evaluación de efectividad, adoptada en esta publicación, es la medición, descripción y valoración o juicio de la asociación entre dos o más variables, en este caso intervención y resultados, producidos en contextos específicos. El tiempo como variable es el lapso transcurrido entre la medición y la aparición de los resultados esperados. Los conceptos de evidencia y efectividad son difíciles de medir; diversos factores entran en juego cuando se hacen definiciones ope99 Ligia de Salazar rativas de las variables, y cuando de juzgar evidencia y efectividad se trata. Un mismo concepto puede tener distintos significados y alcances; igualmente, se pueden utilizar diferentes instrumentos para medir el mismo concepto. La efectividad ha estado asociada a la evidencia científica y esta última se apoya en diseños epidemiológicos que se fundamentan en el cumplimiento de criterios para juzgar y valorar la validez de la información producida: representatividad de la muestra, aleatoriedad, selección de grupos de control, valoración según pruebas de significancia estadística, precisión de instrumentos de medición y control de factores de confusión, entre otras condiciones y supuestos que no necesariamente pueden ser cumplidos en las intervenciones descritas y, por tanto, pueden conducir a resultados errados. El factor político y ético de evaluación de efectividad se relaciona con quién determina qué se considera como evidencia de efectividad, con cuáles son los indicadores apropiados, y los estándares de comparación. Por otro lado, la otra pregunta es ¿cómo lograr consenso acerca de los criterios para establecer evidencia, cuando hay varios actores con diferentes expectativas y racionalidades? Cuando existe un interés en establecer la asociación causal (atribución) entre los resultados observados y la intervención se aplican criterios cuyo cumplimiento depende de factores que muchas veces están fuera del control del investigador; de allí que la cuestión central a resolver, no sea la eterna dicotomía entre métodos cualitativos o cuantitativos, sino entre los criterios para juzgar la efectividad y la pertinencia y relevancia de aplicar los diseños de estudio. La atribución de los resultados a una determinada intervención debe ser establecida no solamente por la confirmación de asociaciones estadísticas, sino por la de asociaciones lógicas, producto del estudio sistemático del proceso y de la interacción de los factores que influencian tanto la implementación de la intervención como los resultados. Esto 100 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas es mandatorio en intervenciones dinámicas que, como señala Pawson (2001, 2002, 2003), nunca funcionan indefinidamente en todas las circunstancias ni para toda la gente, ya que estas intervenciones están inmersas en sistemas sociales. Al igual que los factores del contexto que influencian tanto la implementación de la intervención como sus resultados, el tiempo para lograr los cambios es una variable importante. Conocer la prevalencia de un riesgo o enfermedad nos ayuda a valorar la magnitud del problema, pero si vamos a intervenir es necesario, también, conocer la evolución del problema, la efectividad de las experiencias anteriores, así como los recursos necesarios para darle respuesta. Finalmente, se ha reconocido que un solo estudio es incapaz de dar cuenta de la efectividad de una intervención, mucho menos de aquellos fenómenos sociales en los cuales es inherente la interacción de diferentes variables sociopolíticas y culturales. Este hecho explica, en buena parte, el creciente interés por los enfoques metodológicos que aplican análisis multinivel y contextual y no la simple adición de variables a la red de causación (Diez-Roux, A.V. 1998). Es contradictorio, por tanto, cuando nos referimos a intervenciones complejas producidas en sistemas abiertos establecer asociaciones causales entre la intervención y los resultados. Esto se da por la necesidad de intervenir en varios niveles y porque estas intervenciones tienen más de un objetivo (existe la intención de alcanzar cambios que pueden ir desde los comportamentales hasta los estructurales, políticos y sociales); tienen varias intencionalidades; están influenciadas por factores del contexto que están por fuera del control de quienes los implementan; están orientadas a comunidades o grupos; frecuentemente no son estandarizables, hay una dinámica de interacción entre sus variables, las cuales usualmente son desconocidas; y, al mismo tiempo, se tiene un interés en presentar la evidencia de la efectividad de estas intervenciones, las cuales están soportadas por resultados, frecuentemente producidos a largo plazo. 101 Ligia de Salazar El evaluador, por tanto, se enfrenta a situaciones de conflicto cuando debe decidir el enfoque metodológico más apropiado para responder a la pregunta de la efectividad y el impacto, de tal forma que la información producida sea confiable, válida, relevante y oportuna. En el área de la promoción de la salud y la prevención de enfermedades se requiere un extenso rango de evidencias. La identificación del tipo específico, las mezclas y la dosis de las estrategias es particularmente compleja. Por ende, se necesita información sobre la población como un todo, sobre subgrupos particulares, sobre el impacto del problema y el potencial de varias intervenciones para hacer la diferencia (Taylor, Campostrini, Gill, Carter, Dal Grande y Herriot, 2010). Ha sido reconocido por varios autores que el conocimiento y la evidencia son necesarios para tomar decisiones, pero cuando se toman decisiones políticas no se distingue entre estos dos. Respecto a esto Birn, Zimmerman y Garfield (2000) señalan que independientemente de cuánta evidencia tengamos nunca removeremos la necesidad de juicio, o sea, la forma de entender algo en lugar de sólo conocerlo. Este entendimiento es mucho más viable si la perspectiva local es el referente de análisis. Por lo anterior, se exige información que permita responder a las siguientes preguntas: • ¿Podemos atribuir los cambios a la intervención?; ¿qué criterios se tienen? • ¿Hubo adherencia (fidelidad) al protocolo de la intervención?; ¿qué cambios se hicieron y por qué? • ¿Qué tan viable es obtener los cambios deseados en el tiempo estipulado? • ¿Cuál fue el desempeño durante el proceso de implementación de la intervención? 102 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas • ¿Se presentaron resultados intermedios relacionados con el objetivo final?; ¿podrían conducir al logro de los objetivos? • ¿Hubo factores que pudieron influenciar la implementación de los resultados?; ¿cuáles? ; ¿fueron considerados en el análisis y en la interpretación de los datos? • ¿Cuál es la percepción de los “interesados” (stakeholders) en relación con los hallazgos y su utilidad para la toma de decisiones? El diseño metodológico de la evaluación debe propugnar por una interpretación y una comprensión integral de los fenómenos encontrados a partir de un análisis comprensivo del contexto, el proceso y los resultados. La evaluación, según la perspectiva de un solo usuario, puede producir resultados “sesgados”, dado que la perspectiva de este usuario no necesariamente refleja la de otros actores, aunque sí orienta la evaluación y fija el referente para comparar y valorar si algo funciona o es efectivo. Por ejemplo, al respecto, Hoppe (1999) afirma que los investigadores han sido calificados de ingenuos políticamente por creer que pueden producir evidencias libres de la influencia de la política; y por ello fallan al sintetizar y presentar la investigación con el fin de que sea útil a los formuladores de las políticas. El autor plantea que el modelo mediante el cual los investigadores emplean el enfoque para hallar determinada verdad y que será informada posteriormente a los tomadores de decisiones, rastreando la evidencia para luego identificar la mejor solución a un determinado problema, muestra no solo una comprensión inadecuada del proceso de formulación de políticas, sino que evidencia la utilización de un enfoque poco riguroso para producir evidencia. Esto ha obligado a los evaluadores y los tomadores de decisiones a debatir el tema, y tener como referentes factores que compiten entre sí, tales como la precisión, la validez y la oportunidad de la información versus su sentido, su relevancia y su utilidad para la toma de decisio103 Ligia de Salazar nes; la temporalidad de la investigación evaluativa versus el proceso político y gerencial; la información para los promotores del proceso versus la información para los formuladores e implementadores de las políticas, y los investigadores interesados en la teoría que fundamenta la intervención; la evidencia de la efectividad versus la evidencia de la rentabilidad social; y factores técnicos y económicos versus los éticos. Otro aspecto clave que se debe tener en cuenta es la perspectiva de los evaluadores y, en general, de las personas interesadas en los resultados de la evaluación. Dado que puede haber muchos interesados que no tengan la misma perspectiva o los mismos parámetros para valorar el éxito de la intervención, es conveniente indagar sobre este aspecto y llegar a un consenso. Sobre lo dicho anteriormente, Gupta (2001) cuestiona la neutralidad al asignar un valor, y señala que en un mundo de ideologías diversas, es imposible ser completamente neutral cuando se hace un análisis político. Menciona que “debemos aceptar la existencia de normas, valores e ideologías sin permitir que ellas nos impidan usar el análisis sistemático. Si nosotros reconocemos estas limitaciones externas las podemos incorporar en nuestro razonamiento científico”. La cuestión de la perspectiva se vuelve crítica en el análisis político cuando consideramos el análisis desde la perspectiva de un solo “cliente” o usuario de la información, ya que los analistas pueden subordinar la metodología a los intereses de ese cliente. Es interesante reflexionar sobre dos preguntas que hace Gupta (2001) en relación con la selección de la perspectiva de análisis: ¿cómo la ideología y la percepción afectan la interpretación de los resultados de la evaluación?, y ¿puede esta disputa ser resuelta con herramientas analíticas objetivas? Es necesario tener presente que las diferentes perspectivas, en lugar de contradecirse u oponerse, son parte de un proceso de cons104 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas trucción y de acuerdos, en el cual el énfasis de la evaluación y los indicadores para valorar su efectividad dependen frecuentemente del momento o ciclo de vida de la intervención y, por tanto, de la viabilidad de observar los resultados de interés. Así, un modelo de evaluación esclarecedor debe ser aplicado, de tal modo que los resultados de la investigación se filtren en la forma como los problemas son abordados y la influencien, y se establezca un diálogo permanente entre investigadores y formuladores de políticas, con el fin de que ambos aprendan de cada uno y construyan respuestas colectivamente. Se propone que se tengan criterios no sólo para juzgar causalidad basada en asociaciones estadísticas, sino también, consideraciones sobre la evidencia que añade credibilidad a la interpretación. Se debe invertir en interpretación tanto como en recolección de datos, pues pasa que muchos de éstos son recogidos con un alto costo y hay una poca interpretación o análisis. Herramientas metodológicas A continuación se describen brevemente algunos diseños de estudios que, al contrario de los anteriores, se caracterizan por un interés en valorar la efectividad según los resultados finales o el cumplimiento de los objetivos más que por el proceso y los resultados intermedios. Al final de la sesión se hará énfasis en el uso de métodos alternativos, los cuales combinan enfoques cualitativos y cuantitativos para dar cuenta de los aspectos señalados anteriormente. • Los métodos epidemiológicos tradicionales. A continuación se des- criben brevemente y se analizan críticamente la viabilidad y la conveniencia de aplicar diversos diseños de estudios para la evaluación de la efectividad de las intervenciones. Algunos se caracterizan por su interés en valorar la efectividad de la intervención a través de resultados intermedios o resultados finales, que den cuenta del cumplimiento del objetivo de la intervención; otros, por la efectividad de los mecanismos que hicieron posi105 Ligia de Salazar ble los cambios o hallazgos encontrados; y, finalmente, los que consideran importante y necesario valorar ambos aspectos. Hay un llamado, entonces, a orientar la perspectiva de la calidad de los métodos empíricos a una que incluya la teoría para conocer hasta dónde un mecanismo teórico fue definido y probado. • Estudios analíticos: experimentales, cuasiexperimentales y observacionales. Si bien el diseño metodológico, que ha sido identificado como “prueba reina” para establecer la evidencia de efectividad en salud pública han sido los estudios aleatorios controlados – RCT–. Varios autores (Waters, E., Doyle, J., Jackson, N. et al., 2006, abril) han señalado que estos estudios son inapropiados, innecesariamente costosos y engañosos cuando se pretende establecer asociaciones entre variables que no siguen los supuestos en los cuales se soporta su validez. Tenemos el caso de la interacción de múltiples niveles para lograr el objetivo, y la dificultad para identificar las variables que interactúan e influencian los resultados, con el fin de controlarlas; las dificultades para encontrar apropiados grupos control, que se diferencien de la población intervenida, sólo por el hecho de haber recibido la intervención; la dificultad para controlar o impedir la influencia de factores del contexto, que cambian el protocolo de la intervención como también los resultados. En muchas ocasiones estos factores (mecanismos) más que ser controlados, deben ser identificados, comprendidos y tenidos en cuenta en el análisis y en la interpretación de resultados. Aquí la lógica del control no parece tener razón de ser. Al respecto, Loomis y Wings (1990) afirman que esta complejidad refleja mejor la realidad que los modelos multicausales que prevalecen hoy en día. 106 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas • Revisión sistemática. Se refiere a la síntesis de la recolección com- prensiva de información sobre un tópico en particular (Brownson, R.C. et al., 2003). La revisión sistemática inicia con la necesidad de integrar la información existente con el fin de proveer información confiable y suficiente para una toma racional de decisiones (Campostrini, E. 2007; Mulrow, C.D. 1994; Greenhalg, T. 1997). • Meta-análisis. Usa la síntesis de resultados de múltiples estudios de investigación mediante un enfoque cuantitativo en cuatro pasos: identificación de estudios relevantes; identificación de criterios de inclusión y exclusión; procesamiento de datos; y análisis estadístico, que incluye la exploración de la heterogeneidad de los estudios (Brownson, R.C. et al., 2003). Con estos estudios se pretende aumentar el tamaño de la muestra para incrementar, a su vez, probabilidad de encontrar diferencias estadísticamente significativas. • Series de tiempo y tendencias usando los resultados de los sistemas de vigilancia en la salud pública. Los sistemas de vigilancia en la salud pública permiten el acopio y el análisis de datos sobre variables de interés en forma rutinaria, y señalan los cambios de dichas variables (prevalencias). Esta información puede convertirse en evidencia de la efectividad cuando las intervenciones tienen que ver con variables rutinariamente recogidas y con información del proceso y el contexto que está asociada con los cambios de prevalencias. Se ha resaltado el valor de la vigilancia en la salud pública para proveer información de calidad que sea confiable, y que permita no sólo pensar sino actuar en diferentes niveles y especialmente a nivel local, el cual está basado en necesidades y prioridades. • Enfoques metodológicos alternativos: combinación de enfoques cuantitativos y cualitativos. Hasta aquí hemos descrito tres enfoques metodológicos; los primeros se soportan en los supuestos que fundamentan los estudios epidemiológicos y consideran como 107 Ligia de Salazar única evidencia científica aquella que es resultado de las ciencias biomédicas y naturales. Los segundos, los enfoques cualitativos, reconocen que los diferentes tipos de ciencias requieren diferentes clases de metodologías de investigación, como es el caso de aquellas que provienen de las ciencias políticas y sociales. Finalmente, los terceros, valoran las fortalezas de cada enfoque y, más importante aún, reconocen y aceptan la necesidad de combinar los enfoques y los métodos de cada metodología para responder a preguntas de investigación relacionadas con la efectividad y el impacto de las intervenciones complejas, como es el caso de las intervenciones en salud colectiva y en promoción de la salud. A continuación presentamos dos propuestas metodológicas para brindar respuestas a varios de los desafíos anteriormente planteados, con el ánimo de contribuir a la discusión sobre la combinación de enfoques metodológicos y las técnicas para la evaluación de intervenciones complejas o que, por su naturaleza, resulta irrelevante tratar de establecer asociaciones causales (lineales). Estos enfoques parten del aceptar que no hay verdades universales, porque a causa de la influencia del contexto y de diversas formas y procesos de implementación una misma intervención se comporta de manera diferente y produce, igualmente, resultados distintos. De allí que combinen métodos para la búsqueda interactiva de respuestas con base en los procesos y los mecanismos que hicieron posible unos determinados resultados. • Síntesis realista: Este enfoque centra su análisis en la teoría de la intervención (unidad de análisis), en lugar de la intervención por sí misma (resultados y cumplimiento de los objetivos). Pawson señala otros argumentos para justificar este enfoque de estudio al indicar que los programas complejos consisten en una serie de vínculos, los cuales rara vez se fundamentan en el conocimiento 108 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas de su funcionamiento, y por tanto, dichos programas pueden fallar debido a que hay poca comprensión sobre cómo seleccionar opciones durante su implementación. En resumen, este enfoque además de tener en cuenta los resultados, se orienta a identificar los mecanismos que los hicieron posibles. La síntesis realista demanda una explícita definición de los supuestos acerca de cómo una intervención funciona (teoría de la intervención) y recoge en forma sistemática, evidencia para probar y redefinir esta teoría. Si bien una secuencia similar es utilizada para las revisiones sistemáticas cualitativas y cuantitativas, Pawson La síntesis realista es un (2002,2004) señala algunas diferencias enfoque para revisar la en las revisiones tradicionales y las evidencia de intervenciones realistas en relación con el énfasis, complejas, el cual provee la duración, el ordenamiento y, sobre explicaciones de cómo y todo, con el contenido metodológico por qué una intervención de cada etapa. El enfoque de síntesis funciona en diferentes conrealista, según el autor, es un nuevo textos. Pawson, 2004 modelo que sintetiza los resultados de la investigación, el cual es compatible con la complejidad de los sistemas de salud y con el uso de la evidencia multimétodo y multidisciplinaria. El método se focaliza en las teorías que subyacen a las intervenciones sociales, y aduce al hecho de que las intervenciones son teorías que inician como ideas de los tomadores de decisiones y que después pasan a manos de los gerentes o funcionarios y a los usuarios y participantes de la intervención; es este proceso de implementación de la teoría (estrategias, relaciones interpersonales, infraestructura, etc.) el que contribuye al éxito o el fracaso de la intervención. El método comprende seis pasos: 1) identificación de la pregunta de evaluación; 2) búsqueda de estudios de fuentes primarias, 109 Ligia de Salazar El enfoque de síntesis realista ayuda a contestar preguntas relacionadas con las circunstancias o con las condiciones (mecanismos) que aumentan la probabilidad de que la intervención funcione o, por el contrario, falle, y qué podría hacerse para incrementar las probabilidades de éxito. 3) valoración de la calidad; 4) obtención de datos; 5) síntesis de datos; y 6) diseminación de información. En ambos enfoques, sobre revisiones sistemáticas tradicionales y revisiones realistas, hay consenso acerca de la transparencia o la auditabilidad del proceso de revisión; también es posible que en ambos, los investigadores, tomadores de decisiones y los otros interesados puedan verificar qué hay detrás de la revisión, con el fin de valorar el rigor, la validez, la confiabilidad, y la verificación de los hallazgos y las conclusiones. Invertir tiempo suficiente para definir la pregunta a responder es clave para iniciar el proceso de búsqueda, análisis y comprensión de los resultados de la revisión. En el enfoque realista, como ya fue indicado, hay un interés por descubrir el porqué, cuándo y cómo una intervención funcionó. Es así como la pregunta general se orienta a descubrir los mecanismos que hicieron posible un determinado resultado, y por ello hay preguntas complementarias que se relacionan con la pregunta general: ¿para quién funcionó la intervención; en qué circunstancias; de qué forma y por qué? Las preguntas iniciales se refinarán periódicamente a medida que el nuevo conocimiento surja como producto de la revisión y el análisis conjunto de los interesados. • La Efectividad y los sistemas de vigilancia en la salud pública. Uso de resultados de los vigilancia en la salud pública y de otras fuentes de información: El diseño de la evaluación que valora la efectividad de las intervenciones en la salud pública y en la promoción de la salud, que articula la vigilancia en salud pública (distribución de prevalencias y tendencias) con cambios en el contexto y factores que influencian los resultados –como cambios políticos, organizacionales, comportamiento, capacidad de actuar, entre otros–, es recomendado por las siguientes razones: 110 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas -- Los estudios ecológicos, según algunos autores (Kelsey, Thompson y Evans, 1986), son más apropiados cuando hay interés en procesos sociales y culturales. Los estudios con un enfoque ecológico consisten en encuestas transversales cuya unidad de análisis son poblaciones o grupos, y los individuos estudiados son vistos como miembros de una comunidad en un determinado contexto (Valente, 2002; Jekel, Elmore y Katz ,1996). -- Campostrini, E. y McQueen, D. (2007) resaltan el valor de la vigilancia en la salud pública para proveer información de calidad y confiable, que permita no sólo pensar, sino actuar en diferentes niveles y especialmente local, basado en necesidades y en prioridades. -- En la evaluación de intervenciones complejas es necesario no sólo conocer si la intervención alcanzó el objetivo, sino también comprender la teoría (las teorías) del programa, o los mecanismos que hicieron que éste funcionara o fallara, y no sólo precisar si éste funcionó. En este modelo dicha información será obtenida mediante métodos cualitativos que den cuenta de la calidad del diseño y de la implementación de la intervención. -- Dos estrategias podrían incrementar la validez y la credibilidad de este tipo de estudios: 1) Varias mediciones para identificar las tendencias del cambio, y 2) Información sobre el proceso de implementación de la intervención para obtener no sólo asociaciones estadísticas, sino asociaciones lógicas que se fundamenten en los resultados de la interacción entre variables (mecanismos). Este enfoque puede ser fortalecido al combinar los resultados de la vigilancia con la información cualitativa sobre el diseño y la implementación de la intervención. -- Un ejemplo del uso de sistemas de vigilancia para evaluar intervenciones en la salud pública y en la promoción de 111 Ligia de Salazar la salud es la evaluación de la efectividad y el costo de la efectividad de las intervenciones escolares, que se combina técnicas cuantitativas y cualitativas para valorar tendencias de prevalencias de factores de riesgo en esta población con técnicas para identificar y comprender los procesos de cambio, tales como la documentación y sistematización de experiencias (PAHO, 2007; De Salazar, L. 2004b). -- Basado en resultados de sistemas de vigilancia en salud pública (de Salazar, 2011), el modelo de evaluación de la efectividad de las intervenciones para controlar y prevenir enfermedades crónicas no transmisibles, ECNT, y los factores de riesgo asociados, es otro ejemplo mediante el cual se evaluaron diversas intervenciones latinoamericanas en la salud pública y en la promoción de la salud. Modelo Evaluación de efectividad de intervenciones para controlar y prevenir enfermedades cronicas no transmisibles Enfoque Cualitativo Enfoque Cuantitativo Sistematización • Fundamentación • Suficiencia • Coherencia • Desempeño Vigilancia-Encuestas-Registros • Validez • Fuerza de asociación • Importancia de los cambios Jerarquía de la evidencia Asociación Contribución (Correlación) Atribución Gráfico 1: Modelo de evaluación de la efectividad de las intervenciones para controlar y prevenir ECNT. 112 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Los componentes del modelo de evaluación incluyen la valoración de la calidad del diseño de la intervención; la valoración de la calidad de la implementación, la adherencia al protocolo y la interacción de los componentes del programa; la importancia y significado estadístico de los cambios; las tendencias de prevalencia de los eventos de interés; y la atribución de los cambios a la intervención. Para cada componente se establecieron variables de estudio e indicadores para valorar su cumplimiento. Matriz de variables e indicadores Calidad del diseño Calidad del proceso de implementación Fundamentación teórica Recursos. Suficiencia/viabilidad del diseño/ Protocolo Identificación completa de actividades y recursos Valoración de los Valoración de la cambios en la coherencia entre los prevalencia de even- enfoques cualitatitos de interés vos y cuantitativos Metodología utilizada para valorar los cambios en los eventos de interés Componentes y mecanismos Cumplimiento de actividades Asociación Contribución Factores de contexto Significado e importancia de los cambios Indicadores de logro 113 Atribución Ligia de Salazar La prueba del modelo de evaluación se realizó en cuatro ciudades latinoamericanas Cali y Medellín (Colombia), Mar del Plata (Argentina) y Estado Lara (Venezuela) y se encontró que si bien su uso es altamente deseable, puede ser inoperante en la práctica si no se establecen condiciones relacionadas con la definición precisa de la intervención, basada no sólo en el protocolo propuesto sino en los cambios como resultado de la práctica y el contexto en que se realiza; la disponibilidad de información de calidad sobre el proceso de implementación y los factores que han influenciado tanto la intervención como los resultados, como es el caso de los determinantes sociales; y las estrategias y los mecanismos que favorecen la articulación entre la vigilancia, la evaluación y la política pública. 3.3 Evaluar costo efectividad La evaluación económica es el conjunto de técnicas orientadas a examinar y seleccionar las mejores opciones en términos de sus costos y consecuencias; por consiguiente, las tareas básicas de este tipo de evaluación son: identificar, medir, valorar y comparar costos y resultados (Drummond, M., O´Brien, B., Stoddart, G. y Torrance, G., 1997). Esta definición tiene dos aspectos fundamentales que la caracterizan: el primero, la consideración de los costos y los beneficios en un solo análisis; y el segundo, el uso de los resultados para la toma de decisiones, al considerar la escasez de los recursos como un limitante para producir los resultados deseados. Este tipo de evaluación se preocupa por aplicar los conceptos básicos de la economía al establecimiento de prioridades, y por orientar la inversión hacia el máximo beneficio, según las preferencias de la comunidad. La búsqueda de la eficiencia es la base de la evaluación económica; éste es un criterio económico que revela la capacidad de producir el máximo de resultados con el mínimo de recursos. Es importante tener en cuenta que la mejor opción no es necesariamente la que genere la mayor productividad económica, pues en la 114 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas mayoría de los casos el objetivo no es obtener rentabilidad financiera, sino elegir la alternativa que resuelva mejor un determinado problema con la menor inversión de recursos. La evaluación económica es una herramienta analítica que permite poner en una balanza las ganancias y las pérdidas, o en términos más estrictos, los costos y los beneficios de una intervención, para la asignación de recursos en la dirección más eficiente. Todo ello la convierte en una herramienta vital para la toma de decisiones. Como métodos más comunes de la evaluación económica están el análisis costo-efectividad y el análisis costo-beneficio y sus derivados. El primero sirve para resolver el problema de la eficiencia técnica, al determinar la forma menos costosa de obtener unos resultados deseados. El segundo procura resolver el problema de la eficiencia en la asignación, al determinar cuál es el resultado más deseado (valorado) por la sociedad. Del análisis costo-efectividad se derivan el análisis costo-utilidad y costo-consecuencia. 115 Ligia de Salazar BIBLIOGRAFÍA Abma, T. (2005), “Responsive evaluation: Its meaning and special contribution to health promotion”. En: Evaluation and program planning, vol. 28, págs 279–289. Beaglehole, R., Bonita, R. y Kjellstrom, T. (1994). Epidemiología básica. Publicación científica. núm.551, OMS, Ginebra. Birn, A-E., Zimmerman, S. y Garfield, R. (2000), “To decentralize or not to decentralize, is that the question? Nicaraguan health policy under structural adjustment in the 1990”. En: International Journal of health services, vol. 30, núm. 1, pp. 111-28. Brownson, R., Baker, E., Leet, T. y Gillespie, K. (2003). Evidence-based public health. New York, Oxford University Press. Campostrini, E. (2007). “Measurement and effectiveness. methodological considerations, issues and possible solutions”. En: McQueen, D., Jones, C. (edits.). Global Perspectives on Health Promotion Effectiveness. New York, Springer. Cerda, G. (1994). La investigación total. La unidad metodológica en la investigación científica. Mesa redonda MAGISTERIO. Colombia. 116 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Cronbach, L. et al. (1980). Toward reform of program evaluation: Aims, methods, and institutional arrangements. San Francisco, Jossey-Bass. De Salazar, L., Díaz, C. y Magaña, A. (2002). Municipios y comunidades saludables. el reto de la evaluación, Cali, Colombia, CEDETES. Universidad del Valle. De Salazar, L. (2004a) “Promoción de la Salud y Evidencias de su Efectividad: Un Reto Metodológico y Político”. En: Arroyo, H. (edit.). La promoción de la salud en América Latina: modelos, estructuras y visión crítica, Universidad de Puerto Rico. De Salazar, L. (2004b), “La Sistematización de Experiencias en Promoción de la Salud”. En: Efectividad en promoción de la salud. Guía de evaluación rápida. CEDETES – Universidad del Valle. Cali, Colombia. De Salazar, L., (2011) ¿Funcionan y son efectivas las intervenciones para prevenir y controlar las Enfermedades Crónicas? ¿Qué dice la evaluación? Programa Editorial Universidad del Valle. Cali, Colombia. De Salazar, L. y Gómez, S. (2011) (comps). Abordaje de las enfermedades crónicas. Lecciones de la práctica, Programa Editorial. Universidad del Valle. Cali, Colombia. Diez-Roux, A. (1998), “Bringing context back into epidemiology: variables and fallacies in multilevel analysis”. En: American journal of public health, vol. 88, Issue 2, págs 216-222. Diez Roux, A. (2004), “Genes, individuos, sociedad y epidemiología” en Spinelli, H. (comp) Salud Colectiva. Cultura, instituciones y subjetividad. Epidemiología, gestión y políticas, Buenos Aires, Lugar Editorial, págs 71-81. Drummond, M.; O´Brien, B.; Stoddart, G. y Torrance, G. (1997). Methods for the economic evaluation of health care programmes. Segunda edición. New York, Oxford Medical Publications, pp: 233. Earl, S.; Carden, F. y Smutylo, T. (2001). Outcome Mapping: Building Learning and Reflection into Development Programs. Canadá. International Development Research Centre, IDRC. Fundesalud/CEDETES (2008). Guía para la sistematización de intervenciones en salud pública y promoción de la salud. UIPES. 117 Ligia de Salazar Green, J. y Keith, T. (1999), “Towards a secure evidence base for health promotion”. En: Journal of public health medicine, vol. 21, núm. 2, págs 133- 139. Greenhalgh, T. (1997). “How to Read a Paper: Assessing the Methodological Quality of Published Papers”. En: British medical journal, vol.315, pp: 305-308. Guba, E. y Lincoln, Y. (1981). Effective evaluation. Beverly Hills, Sage. Guba, E. y Lincoln, Y. (1989). Fourth generation evaluation. Beverly Hills, Sage. Gupta, D. (2001). Analyzing public policy: concepts, tools, and techniques. San Diego State University, CQ Press A Division of Congressional Quarterly Inc Washington D.C. Hoppe, R. (1999), “Policy analysis, science and politics: from ‘speaking truth to power’ to ‘making sense together’”. [En línea], disponible en: http://www.cddc.vt.edu/tps/e-print/s&pparticle.pdf Recuperado: el 2 de marzo de 2011. House, R. (1981). “Tres perspectivas de la innovación educativa: tecnológica, política y cultural”. En Revista de Educación, vol.286, núm.1988, págs 5-34. Jara, O. (2006), “Sistematización de experiencias y corrientes innovadoras del pensamiento latinoamericano. Una aproximación histórica”. En: Revista La Piragua, núm. 23. Jekel J, Elmore, J y Katz, D (1996). Epidemiology Biostatics and Preventive Medicine. WB Saunders Company, págs 11- 67. Kelsey, J., Thompson, D. y Evans, A. (1986). Methods in observational epidemiology. Oxford University Press, págs 187. Kane, S., Gerretsen, B., Scherpbier, R., Dal Poz, M., Dieleman, M. (2010), “A realist synthesis of randomized control trials involving use of community health workers for delivering child health interventions in low and middle income countries” En BMC Health services research, vol. 10, núm.286. 118 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Kemm, J. (2006, junio). “The Limitations of ‘Evidence-Based’ Public Health”. En: Journal of evaluation in clinical practice. vol. 2, págs 319. Lincoln, Y. S. y Guba, E. G. (1985). Naturalistic inquiry. Beverly Hills, Sage. Loomis D, Wing S. (1990).”Is molecular epidemiology a germ theory for the end of the twentieth century?”. En: International journal of epidemiology. vol. 19, págs l-3. Marmot, M. (2004). “Evidence Based Policy or Policy Based Evidence?”. En: British medical journal. vol.328, págs. 906-907. McQueen, D. y Anderson, L. (2000). “What counts as evidence: issues and debates on evidence relevant to the evaluation of community health promotion programs”. En: Rootman, I., Goodstadt, M., McQueen, D., Potvin, L., Springett, J. y Ziglio, E. (edits.) Evaluation in Health Promotion: Principles and Perspectives, Copenhagen, WHO (EURO). McQueen, D. (2007). “Evidence and theory. continuing debates on evidence and effectiveness”. En McQueen, D., Jones, C. (edits.) Global perspectives on health promotion effectiveness. New York, Springer. Mulrow, C. (1994). “Rational for systematic reviews”. En: British medical journal, vol.309, pp:597- 599. OPS/OMS (2005). “Guía de evaluación participativa para municipios y comunidades saludables”. [En línea], disponible en: http://www.bvsde. paho.org/bvsdemu/fulltext/guiaeval/guiaeval.html Recuperado: 13 de junio de 2008. Organización Mundial de la Salud [OMS], (2004). Promoción de la salud mental. conceptos, evidencia emergente, práctica. Informe compendio, OMS: Ginebra. Pan American Health Organization (PAHO), (2007). Guide to economic evaluation in health promotion. Washington, Pan American Health Organization. Pawson, R. (2001). “Evidence and policy and naming and shaming”, ESRC UK Centre for Evidence Based Policy and Practice. Pawson, R. (2002). “Evidence-based policy: the promise of ‘realist synthesis’”. En: Evaluation vol. 8, núm. 3, págs 340-358. 119 Ligia de Salazar Pawson, R. (2003). “Nothing as practical as a good theory”. En: Evaluation, vol. 9, núm 4, págs 471-490. Pawson, R. (2004, agosto). Realist synthesis: an introduction submitted to the ESRC research methods programme. Working Paper Series. Potvoin, L. (2007, 11 de julio). “Evidence in public health and health promotion: a debate; a response under construction; a key aspect in the research agenda” [conferencia], Seminario taller internacional de evaluación de efectividad en salud pública. Un enfoque desde los determinantes sociales y la promoción de la salud. Cali, Colombia. Stake, R. (1975). “To evaluate an arts program”. En: Stake, R. (edit.) Evaluating the arts in education: A responsive approach. Colombus, Ohio. Merrill, págs 13–31. Stake, R. y Abma, T. (2005). “Responsive evaluation”. En: Mathison, S. (Edit.), Encyclopedia of evaluation, Thousand Oaks: Sage, págs 376–379. Smutylo, T. (2001). “Impacto latente, atribución oculta: Cómo superar las amenazas al aprendizaje en los programas de desarrollo”. Unidad de evaluación, centro internacional de investigaciones para el desarrollo, IDRC, Ottawa, Canadá. Susser, M. (2001) “Glossary: Causality in public health science”. En: Journal of epidemiology and community healt,. vol.55, págs 376-378. Taylor, A., Campostrini, S., Gill, T., Carter, P., Dal Grande, E. y Herriot, M. (2010, agosto). “The use of chronic disease risk factor surveillance systems for evidence-based decision-making: physical activity and nutrition as examples”. En: Int J Public health, vol. 55, núm. 4, págs 243-9. Valente, T. (2002). Evaluating Health Promotion Programs, Keck School of Medicine University of Southern California. Boolmberg Hopkings University, Oxford University Press Inc. Waters, E.; Doyle, J.; Jackson, N. et al. (2006, abril). ���������������������� “Evaluating the effectiveness of public health interventions: the role and activities of the Cochrane collaboration”. En: Jech.bmjjournals.co 120 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas IV. Comunicación, puente entre la evaluación, la política y la práctica PRESENTACIÓN Este capítulo brinda elementos para identificar y reflexionar sobre los alcances, posibilidades y estrategias que ofrece la comunicación para fortalecer los procesos de toma de decisiones a través de la persuasión, el empoderamiento y la toma de decisiones Se sugieren algunas estrategias y metodologías estándar, que podrían ayudar a desarrollar una organizada y efectiva labor comunicativa; sin embargo, se recomienda al evaluador tener flexibilidad para adaptarlas a cada situación particular. 121 Ligia de Salazar 122 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas INTRODUCCIÓN La comunicación en salud pública tiene el doble papel de informar y persuadir. Aunque estas dos intenciones están íntimamente interrelacionadas hay diferencias en la forma y los mecanismos utilizados para conseguir el objetivo. Es frecuente que quienes comunican resultados de la investigación, en este caso de evaluaciones, lo hagan como respuesta a la demandas de agencias financiadoras, o a su propio interés, como es el caso de los informes y artículos científicos para dar cuenta de los hallazgos y avances de la investigación. En los casos anteriores se comunica pero hay dos aspectos adicionales para poder cumplir el objetivo de persuadir: el primero es que los resultados incluyan al público en general y segundo, que se amplíe el contenido y la forma (medios) para comunicar los resultados de la evaluación, de tal forma que podamos tener una influencia real en las decisiones que de ella se deriven. Nelson y colaboradores hacen la distinción entre datos e información. Los datos en salud pública se refieren a cifras, porcentajes, tasas y poblacionales. La información hace alusión a datos y cifras interpretados con el conocimiento científico. En esta publicación 123 Ligia de Salazar comprendemos que el dato se convierte en información cuando la interpretación de las cifras se realiza según las características sociales, económicas, culturales y políticas en donde estas fueron producidas, en otras palabras, contextualizando los hechos. Igualmente, la contextualización incluye el análisis de coyunturas específicas relacionadas con el uso que se quiera dar a la información. Continuamente hay que informar, educar, persuadir y empoderar al público sobre aspectos relacionados con la salud, cuya intencionalidad gira en torno a su mejoramiento. Se requiere concienciar de esta intencionalidad, del alcance y del principal propósito de la comunicación para así reconocer los escenarios y coyunturas que tienen lugar, y definir las técnicas y mecanismos apropiados para acercar los resultados de la evaluación a la toma de decisiones y la acción. Frente al proceso de formulación de políticas y toma de decisiones, la evaluación debe reflejar las expectativas e interrogantes de los usuarios potenciales de la información: los formuladores de políticas, el público, los proveedores de servicios, los académicos, los gerentes y los administradores. Debe trascender la presentación del informe y la publicación de resultados para convertirse en insumo primario de las dinámicas de reflexión de la evaluación. Un desafío por resolver es contemporizar los tiempos políticos con los de la evaluación sin afectar la calidad de la investigación evaluativa. Así, lejos de reducir la comunicación a la diseminación, entrega y eventual publicación del informe final, se debe considerar la comunicación como una actividad que debe ser planificada desde el principio de la evaluación y producirse en diferentes momentos del proceso y no sólo al final, lo cual demanda la utilización de diversas estrategias y medios (Tiana, 1997). La expectativa es que la evaluación proporcione información, evidencias y recomendaciones que sirvan para resolver un problema o, al menos, para disminuir la incertidumbre sobre la mejor opción 124 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas a la luz de ciertos criterios relacionados con los beneficios y el cumplimiento de principios éticos. Los tomadores de decisiones tienen una orientación práctica y valorarán los resultados de la evaluación en la medida que éstos sean instrumento para ayudar a resolver dicha incertidumbre. Es igualmente necesario darle énfasis a procesos de la comunicación de resultados y generación de dinámicas participativas que recojan la opinión del público, los decisores, los proveedores y los administradores, de tal forma que se aumente la probabilidad de adopción de las recomendaciones y éxito en su aplicación. La comunicación efectiva de los resultados de la evaluación no requiere que se utilicen todas las oportunidades y canales. Por el contrario, necesita que se seleccione o se creen estratégicamente las oportunidades y canales apropiados en las circunstancias apropiadas. En el empeño de vincular la evaluación a la política, el diseño de estrategias.culturalmente idóneas de comunicación no garantiza que se tomen mejores decisiones, pero sí maximiza la probabilidad del uso de los resultados en los procesos decisorios. Se deben considerar recomendaciones generales, pero también atender al hecho de que la mejor comunicación se obtiene al aplicar una receta. La tarea de cada evaluador es proveer la mejor, la más oportuna y la más relevante información posible sobre el programa evaluado; para esto, se debe identificar quiénes son los interesados y los usuarios de su información, adaptar las estrategias de comunicación al contexto y principalmente al mensaje que se quiere enviar, las características de los beneficiarios y el objetivo que se pretende alcanzar al comunicar. 1. Fundamentación Hechos • En salud pública la comunicación tiene un alcance mayor al que tradicionalmente se le ha dado, pasa de ser sólo instrumental para hacer parte de una estrategia y de un proceso de cambio; de allí 125 Ligia de Salazar que el papel de la comunicación debe ser coherente con ello. En otras palabras, las estrategias y los medios de comunicación están estrechamente ligados y son influenciados por la intencionalidad al comunicar. • El debate sobre la utilidad de la investigación en los procesos de formulación de política continúa hoy, en un contexto en el cual muchos investigadores y evaluadores piensan que su papel termina cuando el conocimiento se produce, y muchos tomadores de decisiones enfatizan en que los investigadores nunca contestan sus preguntas. Ante esto, se requiere identificar qué tipo de arreglos más constructivos pueden hacerse entre ambos actores. De hecho, la relación entre conocimiento y acción es, en sí misma, un problema de investigación (De Pouvourville, 1999). • Hay una evidente necesidad de conocer mejor a los diversos actores involucrados en la toma de decisiones, así como las fuentes de información que más utilizan, sus motivaciones para tomar decisiones y sus interlocutores, competidores y aliados. Así mismo, los evaluadores deben desarrollar habilidades políticas y de comunicación, además de sus capacidades científicas, lo cual no contradice la exigencia de estructuras y mecanismos más formalizados para cumplir estas funciones. • Se reconoce que en procesos de comunicación de la evaluación la información no es asimilada, entre otras razones, por la gran cantidad de informes e información que los decisores deben leer y generalmente se les provee de conocimiento generado por un solo tipo de enfoque metodológico, aquel que provee cifras precisas (investigación positivista). • Sin embargo, observamos en la práctica que muchas veces el proceso de toma de decisiones y de formulación o gestión de políticas poco o nada tiene en cuenta las evidencias. De igual manera, en caso de que existan estas evidencias, su difusión está limitada a 126 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas publicaciones e informes dirigidos a la comunidad académica, que escasamente toma partido en la formulación de las políticas y en su implementación (De Salazar, 2000). • Se tiende a estandarizar las soluciones-recomendaciones al considerar que arrojan resultados iguales en todos los contextos, sin considerar el ambiente político o la apertura al cambio de las instituciones, a sabiendas que el contexto político e institucional es el aspecto más crítico para lograr la articulación de la información con la política y finalmente con la acción. • Los procesos de comunicación deben ser planeados estratégicamente para que sean efectivos. La mera diseminación no ha demostrado eficacia en la adopción y aplicación de nuevos resultados de investigación, al tiempo que la recepción del conocimiento no implica su “uso”. Los procesos de comunicación deben tener en cuenta el público al cual se quieren dirigir, los mensajes que manejarán, deben considerar las características, los intereses y las expectativas de los interlocutores –emisores y receptores– e identificar el canal de transmisión más indicado para obtener resultados efectivos. • Generalmente hay una sobrevaloración de las publicaciones científicas como el único medio para transferir el conocimiento, y de las tecnologías como los únicos medios de comunicación. Es indispensable desarrollar permanentes estrategias que permitan indagar y conocer los procesos decisorios y sus motivaciones, de tal manera que las estrategias que se diseñen para comunicar los resultados, en este caso de la evaluación, respondan a dichas motivaciones y expectativas. • Se debe considerar la relevancia de la fuente de información. Aunque la comunicación es un proceso interactivo en el que cada uno de sus componentes influye en los demás, la fiabilidad de la fuente es una de las condiciones imprescindibles para que las 127 Ligia de Salazar estrategias sean efectivas; entonces, es necesario que el receptor reconozca como experto al emisor. Debate • La información y la toma de decisiones políticas no son procesos lineales. Durante las últimas dos décadas se han realizado grandes esfuerzos para aproximar la investigación y las políticas, pero muchos han fracasado por basarse en expectativas no realistas y por la incomprensión del proceso de definición de políticas, sujeto a múltiples fuerzas. El proceso de toma de decisiones poco o nada tiene en cuenta las evidencias científicas fruto de la investigación o la evaluación. De igual manera, en caso que existan estas evidencias, su difusión se limita a las publicaciones y a los informes dirigidos a la comunidad académica, que escasamente participa en la formulación de las políticas y su implementación. Por tanto, aún están sin responder interrogantes sobre ¿cómo volver más productivas y relevantes las interacciones entre los investigadores y los formuladores de las políticas para responder a los problemas de la sociedad?; ¿por qué algunas ideas que circulan en las redes de investigación y algunas políticas son recogidas y se actúa con base en ellas, mientras que otras son ignoradas y por eso desaparecen? • Cambiar un comportamiento relacionado con la salud o tomar una determinada decisión no se consigue con una campaña o mediante una estrategia de comunicación. De la misma manera, el disponer de la información adecuada, o desarrollar una estrategia integral de comunicación no garantiza que se logre llegar al plano de la actuación ni que se tomen decisiones en política. El proceso de decisiones es mucho más complejo y está atravesado por otra serie de fenómenos que lo determinan, que van más allá de los alcances de las estrategias de comunicación. Una vez que la decisión técnica entra en el terreno de la decisión política, ingresa a un contexto interactivo donde operan múltiples racio128 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas nalidades, que responden a distintos grupos de interés, cada uno tiene información parcial, y actúa en un medio incierto. Desarrollos La comunicación efectiva de los resultados de la evaluación no requiere que se utilicen todas las oportunidades y todos los canales. Por el contrario, necesita de una selección o creación estratégica de oportunidades y de canales apropiados, en las circunstancias apropiadas. En el empeño de vincular la evaluación a la política, el diseño de estrategias de comunicación culturalmente apropiadas no garantiza que se tomen mejores decisiones, pero maximiza la probabilidad del uso de los resultados en los procesos decisorios. La producción científica y el uso de la evidencia incrementan la probabilidad de contar con mejores y más acertados procesos de formulación y de reorientación de las políticas, al tiempo que permite elaborar políticas más racionales, acordes con los actuales requerimientos del gasto y el logro de la rentabilidad social. Pero esta probabilidad mantiene su curso cuando entran en interacción todos los actores involucrados en la formulación e implementación de las políticas: los políticos, que toman las decisiones y cumplen con la función derivada de su poder; los investigadores o científicos, que supuestamente proveen información relevante y válida; y la comunidad, que además de ser también responsable de proveer información clave, recibe el impacto de una buena o una mala decisión, y simultáneamente debe estar preparada y ejercer presión a favor o en contra de las políticas que se estén debatiendo. Contar con información exacta no siempre es el interés de quienes toman las decisiones. Muchas veces son más importantes las estimaciones que los ayuden a entender si el problema es pequeño o grande, si empeora o mejora, en cuánto tiempo tendrá que resolverse y qué puede hacerse al respecto. Estas aproximaciones tienen mayor probabilidad de ser consideradas, pues se cuenta con que en las decisiones entran en juego, además de los insumos técnicos, las diversas circunstancias 129 Ligia de Salazar y oportunidades, la influencia de los grupos de presión y algunas limitaciones psicosociales –o “momentos de debilidad”-. (White, 1998). Se ha identificado que los formuladores de políticas actúan y responden a nuevas ideas según su educación, sus actitudes, sus ideas prevalentes, su disponibilidad de tiempo, su personalidad y poder (posición, autonomía, acceso a formulación de política); sus intereses, ya sean individuales (valores-preferencias) u organizacionales (incentivos institucionales, responsabilidad, consenso); sus normas individuales (socialmente construidas); su sistema de valores y creencias; y su historia y dependencia. 2. Comunicación de la evaluación, políticas y toma de decisiones Según Fagen (1969), toda la realidad y la coherencia que los acontecimientos tienen para nosotros se debe, en parte, a la manera en que fueron comunicados. Este planteamiento es reafirmado por Sánchez (2005), quien dice que la “legitimidad y la eficiencia de las decisiones y acciones políticas, hoy en día, depende en mucho de estrategias comunicativas y de los insumos suficientes y eficientes de información”. Si en tiempos no muy lejanos la política era una cuestión de unos pocos y se decidía en habitaciones y pasillos de palacios a los que la población no tenía ningún acceso, hoy la conversación y la comunicación de los asuntos públicos, especialmente de políticas públicas, implica a toda la sociedad, que es espectadora pero también agente, receptora y emisora de mensajes y periódicamente instancia decisoria. Estudios han mostrado que uno de los aspectos fundamentales que mayoritaria y consistentemente han explicado el fracaso de diversas iniciativas políticas y de desarrollo es, entre otros, la falta de información; el instrumentar decisiones sin explicar a la población afectada lo que se hace; la falta de comunicación entre el gobierno y la ciudadanía y la exclusión de la población de los procesos de formulación de políticas y programas y de la toma de decisiones (Rota, 2000). 130 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Así, para adentrarnos en los conceptos y métodos que nos permitan tender el puente entre la evaluación, las políticas y la práctica debemos empezar por reconocer que la comunicación, más allá del uso de los medios, las técnicas y las tecnologías y de ser la invitada de última hora, está articulada estructuralmente al proceso de gestión de políticas. De hecho, la gestión de políticas públicas es vista como un proceso eminentemente comunicativo, en la medida en que éstas se constituyen en expresiones de la construcción colectiva de sentidos, intereses y significados. La importancia de la comunicación en la política se nutre de los flujos informativos al proceso de toma de decisiones, y desde el entorno social. Los gobernados exigen cada vez más ser informados de procesos y sus resultados, pero también exigen ser escuchados cuando de definir los problemas, los temas y las prioridades se trata (Sánchez, 2005). La comunicación impregna la actividad política pública, hasta el punto de que un fracaso en la comunicación de un proyecto político acarrea el fracaso del proyecto mismo; incluso, para algunos autores, se pueden describir muchos aspectos de la vida política como procesos o tipos de comunicación (Fagen, 1969). Sin embargo, como escribe Deutsch (1985), muchas clases de transacciones políticamente relevantes no pueden abordarse desde la comunicación. Pero ese aspecto de la política que guarda relación con los procesos de comunicación. Supone un aspecto estratégico de la política, porque incluye las áreas de la atención, la percepción, la orientación, los valores, la evaluación, la búsqueda de metas y la toma de decisiones. Es sabido que todo proceso que implica decisiones colectivas se enfrenta al problema de la comunicación y del diálogo con la ciudadanía y con los demás actores de una sociedad. En nuestro tiempo, la comunicación es considerada fundamental en los procesos de decisiones políticas y se ha puesto en primer plano de la atención el problema de la información, de los valores, de los símbolos, y su influencia en los receptores de los mensajes de los medios de comunicación social. La información ha dejado de ser un elemento 131 Ligia de Salazar más en la sociedad para que su generación, su procesamiento y su transmisión se convierta en fuentes fundamentales de la productividad y del poder (Castells, 1999). Las agendas de los organismos políticos y de los medios de comunicación develan la distribución de una forma de poder. Este poder -control de la agenda- se traduce en la capacidad para asignar relevancia a un problema social, atribuirle prioridad y fijar sus posibles soluciones, descartando otras alternativas (Sampedro Blanco, 1996). Por su parte, las políticas públicas –un conjunto conformado por uno o varios objetivos colectivos considerados necesarios– se pueden definir como los medios a través de los cuales se expresa la acción del Estado hacia la sociedad; son el “Estado en acción”. La política pública se entiende, así, como un conjunto de objetivos, decisiones y acciones que lleva a cabo un gobierno para solucionar los problemas que, en un momento determinado, los ciudadanos o el propio gobierno consideran prioritarios. Eso significa que no es posible pensar una política pública ajena de la capacidad de intervención y participación de los diversos actores sociales, en su gestión (Figueroa, 2006). Un concepto con el que se define el ámbito conceptual y operativo de las políticas públicas tiene que ver con los “flujos de decisión”. De esta manera, la política pública es el flujo de decisión en torno a un problema que ha sido considerado público, La opinión pública es en- que ha ingresado en la agenda del Estado y tendida como la interac- que debe ser enfrentado de acuerdo con las ción entre los puntos de competencias constitucionales y legales de vista del individuo y los que los gobiernos (Cuervo, 2007). él atribuye a su entorno. (Noëlle Neuman, 1995) Según el significado que les atribuye Majone (1997), las políticas son instrumentos de construcción de opinión pública y de diálogo democrático; por tanto, son también una actividad de comunicación pública y no sólo una decisión orientada a la ejecución de acciones para el cumplimiento de unos 132 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas objetivos. Majone incorpora, además de la intencionalidad estratégica, otra de tipo comunicativo, que es fundamental para la construcción de un clima democrático de discusión, que facilite la articulación del Estado con los ciudadanos. El concepto de agenda El término agenda se utiliza para indicar “el conjunto de problemas percibidos que necesitan un debate público” (Pardioleau, 1982). Por agenda se conoce el espacio en el que diferentes cuestiones o temas apelan a la acción pública. De manera que el paso por la agenda se convierte en requisito para el desarrollo de políticas, especialmente en países democráticos. En una determinada sociedad hay muchas agendas, tantas como grupos de interés, afinidad o presión, que pretenden poner ítems de su agenda en agendas más poderosas como la agenda mediática y la gubernamental. El espacio mediático pretende ser, y probablemente es, una representación de la agenda social; es decir, el conjunto de temas que en un determinado momento mueven a la sociedad a actuar. Los medios de comunicación se comportan como porteros que pueden o no dejar pasar un tema al espacio mediático. La agenda gubernamental se ve influida, como todas las agendas en una sociedad, por la agenda mediática; aunque no existe una relación inmediata y exacta. Hay políticas que desarrolla un gobierno sobre temas que nunca han estado en la agenda mediática, y viceversa: temas que están reiteradamente en la agenda mediática sin conseguir entrar en la agenda gubernamental. El concepto de agenda es una de las bases del trabajo en salud pública y promoción de la salud. Conseguir poner la salud en el espacio mediático es el objetivo de las actividades en defensa de la salud, y la influencia en las agendas gubernamentales es la base para la mediación en el desarrollo de políticas públicas saludables. Igualmente, se podrían caracterizar dos fases o funciones de la defensa de la salud: una consistiría en llamar la atención sobre el problema y la otra, en llamar la atención sobre una determinada respuesta al problema. Álvarez-Dardet (s.f) Hay todavía grandes desafíos para lograr la articulación entre la investigación y la formulación de políticas en salud, y para tender puentes efectivos que cumplan con este propósito. Son tantas las razones para creer que la relación entre evaluación y política es un desafío, que nos vemos obligados a adentrarnos en un análisis de la relación misma con el fin de entender sus posibilidades y perspectivas. En este análisis se evidencia la necesidad de conocer mejor a los diversos actores involucrados en la toma de decisiones, así como sus fuentes de información, sus motivaciones para tomar dichas decisiones y tanto 133 Ligia de Salazar sus interlocutores como sus competidores y aliados. Así mismo, el evaluador debe desarrollar habilidades políticas y de comunicación además de sus capacidades investigativas, lo que no contradice la necesidad de estructuras y mecanismos más formalizados para cumplir estas funciones (Segura B, 2000). No es equivocado señalar que, en muchas ocasiones, la base de las decisiones en la salud y de la acción política es una información incompleta; y por ello, la decisión de actuar se torna en una situación de relativa incertidumbre. A lo anterior se suma que la realidad va también más rápido que el conocimiento. La urgencia con la que hay que tomar determinadas decisiones tiene, por ende, el riesgo del error y sus consecuencias, que recaen sobre quien las adoptó, pero también sobre la sociedad que recibe los beneficios o las consecuencias. Demorarse en adoptar una decisión no es menos arriesgado que tomarla con urgencia. Así, quienes toman las decisiones, otros actores e inclusive los medios de comunicación, están llamados a comparar el costo del error con el costo de la demora, y decidir siempre en situaciones de relativa incertidumbre (Del Rey Morató, 1998). Algunos autores afirman que los tomadores de decisión y los investigadores viven en distintas esferas de referencia (De Pouvourville, 1999). La diferencia más notoria parece estar en sus concepciones sobre incertidumbre y riesgo. De Pouvourville hace la distinción entre incertidumbre radical –como sinónimo de ignorancia- y riesgo –en el cual es posible construir probabilidades- y plantea que para el investigador la ignorancia significa la necesidad de más investigación, pero que para el tomador de decisión esto no necesariamente significa esperar para tomar una decisión. Los tomadores de decisiones tienen una presión adicional, tienen que anticiparse a la consecuencia de una decisión o de una política dada, y establecer estrategias para convencer a las personas de la necesidad de actuar. 134 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Weiss (1986) planteó una serie de modelos con los que se explica la articulación entre investigación y políticas, que son adaptables a la situación entre evaluación y toma de decisiones. Unos modelos establecen una relación unívoca y racional entre la investigación y las políticas; y otros, apuntan hacia una interacción más aleatoria de las conclusiones, la definición de los problemas y soluciones de las políticas. A continuación, los puntos más importantes de estos modelos explicativos: Modelo de solución de problemas y toma de decisiones: Sugiere una relación directa entre la investigación y la formulación de políticas. Supone que los responsables de la toma de decisiones tienen una visión clara del problema y un esquema de las soluciones alternativas, pero carecen de ciertos elementos factuales o de comprensión. Por lo general, en estos casos se requiere una investigación que responda al problema, y se supone que la investigación generada por esta modalidad influirá en las políticas. Frente a esto, Weiss (1986) señala que en algunos casos la investigación precede el problema, y los responsables de la toma de decisiones pueden buscar información en investigaciones ya existentes. Modelo de búsqueda de conocimientos: Supone también una relación lógica entre la investigación y el uso de los resultados en las políticas; pero, a diferencia del anterior, no se orienta a resolver un problema específico, sino a develar alguna oportunidad que pueda ser aprovechada. Estos dos modelos anteriores han sido objeto de crítica, porque se basan en los supuestos, aún no comprobados, de que el análisis es esencial en la definición de las políticas, y que estas políticas constituyen un proceso racional. Modelo interactivo: Este tipo de aplicación plantea que los resultados de una investigación pueden penetrar en el terreno de las políticas como parte de una búsqueda interactiva de conocimientos. Los planificadores de políticas buscan información no sólo a través de los investigadores sino también de un conjunto de otros actores, como administradores, técnicos, políticos, planificadores, periodistas, clientes, grupos de 135 Ligia de Salazar interés, colaboradores y amigos. El modelo reconoce que se adoptan ciertas decisiones cuando las circunstancias políticas lo exigen, y no necesariamente cuando la investigación ha completado y tabulado sus resultados. Modelo político: Este modelo sostiene que se puede usar la investi- gación como un arma política para recabar apoyo para una determinada posición política, para neutralizar a los opositores de esa posición o convencer a los indecisos. Sin embargo, hay perspectivas opuestas a este modelo, e incluso muchos investigadores se niegan a aplicar sus trabajos con fines de propaganda y autojustificación. Este tipo de aplicación hace bajar a la investigación de su pedestal y la lleva a la negociación política, donde se convierte en una fuente más de conocimientos. Modelo táctico: Este modelo se refiere a aquellos casos en que los organismos de gobierno u otras instituciones utilizan la investigación como respuesta táctica para demostrar que se está realizando algo a propósito de un tema específico. La clave de este modelo de aplicación táctica y burocrática está en que se ordena hacer un estudio como respuesta a la opinión pública, y no por los beneficios que podrían brindar las conclusiones de ese estudio. Modelo de clarificación: Este tipo de aplicación puede contribuir a aumentar o disminuir el nivel de figuración de un problema en el programa de las políticas públicas. Como tal, puede servir para convertir un problema existente en uno inexistente, lanzar al dominio público y político temas hasta entonces privados o silenciados o, bien sea, introducir un enfoque nuevo en la manera de pensar de la sociedad sobre determinados problemas. De acuerdo con Auriat (sin fecha), ninguno de los modelos ofrece una respuesta satisfactoria a cómo proceden los responsables de la toma de decisiones para movilizar las conclusiones de las investigaciones y utilizarlas en su proceso de formulación de las políticas. Sin embargo, la comprensión de las diversas perspectivas sobre este tema contribuye 136 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas a acabar con el mito de que la investigación tendría un importante impacto en las políticas si los responsables de dichas políticas prestaran una mayor atención a los resultados de la investigación. 3. Uso de los resultados en la toma de decisiones La comunicación es un eslabón fundamental de la cadena que relaciona las decisiones individuales con la acción y la política pública. Las conexiones que los individuos son capaces de establecer entre sus problemas o experiencias políticas personales y el contexto político general dependen de numerosas variables, entre las cuales los medios de comunicación parecen jugar un papel decisivo. El evaluador tiene la responsabilidad de crear e implementar estrategias de información, comunicación y abogacía que alcancen las diferentes audiencias comprometidas con el futuro de su intervención o acción. Si en el proceso de evaluación se ha logrado involucrar al tomador de decisiones desde la definición de la pregunta, y en general desde el inicio de la evaluación, probablemente éste comprenderá mejor los resultados y acogerá con mayor facilidad las recomendaciones. Es importante recordar que los decisores o responsables de la elaboración de las políticas o los programas se enfrentan no sólo a la dificultad de tratar que sus decisiones se apoyen en la opinión pública o sobre criterios racionales sino también a las presiones que provienen del sistema político, normales en las distintas sociedades. En cualquier caso, hay que tener en cuenta, como principio básico, que seleccionar estrategias apropiadas y elaborar información, para responder a las características de las audiencias, puede mejorar los esfuerzos de comunicación de la evaluación y su paso a la acción y la política en forma significativa (Trostle, Bronfman y Langer; 1999). Un principio fundamental de la comunicación en la evaluación es tomar en cuenta los usos que los decisores harán de los resultados de la evaluación. Los procesos de comunicación deben ayudar a los decisores 137 Ligia de Salazar y hacedores de política a identificar en el concepto y la práctica en qué consiste una determinada solución, y si la solución o alternativa que se plantea corresponde con un sentido general de bienestar. Es innegable que la solución para un grupo puede suponer un problema para otro. En suma, se trata de una identificación de los valores que están de por medio en la elección, y éste es el desafío al que se enfrenta aquí la comunicación. ¿Cómo aumentar la probabilidad de utilización de la información? Weiss (1984) señaló algunos aspectos para aumentar la probabilidad de utilización de los resultados de estudios, sobre todo los evaluativos: • Desarrollar la evaluación teniendo en cuenta los intereses de los usuarios de la información y si es posible, contar con su participación. • El evaluador debe estar cerca de los escenarios y de los hechos. • Concentrar el objeto de la evaluación en situaciones que puedan ser cambiadas. • Producir informes claramente escritos y que sean oportunos. • Formular recomendaciones según el contexto y el análisis conjunto para lograr un consenso. • Diseminar los resultados a través de un resumen corto, bien escrito, dirigido a todos los que tengan relación con la política o la intervención. • Incorporar los resultados de los estudios evaluativos en un contexto más amplio que considere otros estudios. • Realizar una evaluación de buena calidad. 4. Algunas limitantes a tener en cuenta Sabemos que distintos esfuerzos para aproximar la evaluación a la toma de decisiones y la acción a la política no han sido exitosos por basarse en expectativas poco realistas en varios sentidos: muchos evaluadores esperan que otros descubran usos de sus resultados o esperan que la publicación de estos resultados sea suficiente para ponerlos en práctica. Muchos tomadores de decisión desean resultados inequívocos, positivos o inmediatos, y no aceptan estimativas de probabilidades o 138 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas resultados poco halagadores para sus intervenciones cuando requieren predicciones rápidas para direccionar sus decisiones. Por otro lado, se debe tener en cuenta que quienes han buscado estudiar el impacto de las evaluaciones en la definición de políticas trataron de hacerlo en un tiempo poco realista (Pellegrini, 1998). De otra parte, también se observa que las evaluaciones que arrojan conclusiones potencialmente importantes son comunicadas o transmitidas en un lenguaje técnico, poco comprensible para quienes están en el campo político y de las decisiones, que generalmente no tienen una formación en investigación ni el manejo del lenguaje técnico. Así mismo, los resultados tampoco llegan al nivel formativo de quienes recibirán el impacto de una buena o una mala decisión, y cuando llegan, generalmente, el lenguaje o la forma de presentar los resultados se convierte en una barrera para su comprensión. Lo anterior, de hecho, limita la participación en las decisiones de uno de los actores de mayor relevancia en la construcción de políticas públicas en sociedades democráticas: la comunidad. Los tomadores de decisiones son todos aquellos que pueden decidir acerca del proyecto o la intervención. Existen diversos niveles, dependiendo de la decisión a tomar. Hay personas con responsabilidad para decidir sobre los aspectos técnicos del proyecto, sobre la aplicación de las recomendaciones en su vida cotidiana; y otros, sobre lo político, en términos de enfoque, asignación de recursos y continuación, extensión a otras áreas y poblaciones, o finalización del mismo. Hay otro gran obstáculo para los planificadores de políticas en promoción de la salud para usar los resultados de la evaluación: la premura del tiempo. Los responsables de la toma de decisiones necesitan resultados con rapidez, debido, en parte, a la intensa presión pública a la que están sometidos. Muy a menudo sucede que cuando los resultados “exactos” han pasado por todo un proceso exhaustivo de revisión por pares, al momento de utilizarlos ya se ha perdido la oportunidad y pierden su relevancia en la toma de decisiones (White, 1998). 139 Ligia de Salazar También es una limitante importante en nuestros países la falta de recursos y la escasa o nula voluntad política para asignarlos a la investigación aplicada en salud y a validar estrategias que conlleven una articulación más productiva entre conocimiento y política. Otros aspectos resaltados por Weiss (1984), como limitantes para que los resultados de la evaluación sean considerados en la toma de decisiones son: • Los formuladores de políticas tienen dificultad para identificar tempranamente sus necesidades de información. • La tendencia a ver los problemas en términos de conceptos y métodos, con los cuales los académicos están familiarizados, reduce su capacidad para formular preguntas alternativas de mayor receptividad. • La mayoría de los resultados de las investigaciones evaluativas son ambiguos o brindan conclusiones inconsistentes. • Los resultados de un solo estudio son de dudosa extrapolación a otras situaciones o en el futuro. • Las limitaciones en recursos son una barrera para la implementación de los resultados, especialmente los que implican reestructuraciones fundamentales. 5. Identificación de los decisores y sus intereses de información Con el fin de que el evaluador tenga insumos para orientar los objetivos de comunicación y así seleccionar una estrategia efectiva deberá identificar los intereses de los usuarios principales de la evaluación y las preferencias de comunicación. Como las variadas audiencias tendrán también expectativas distintas y requerirán probablemente información diferente sobre la intervención evaluada (Rossi y Freeman, 1993), el evaluador deberá conocerlas ampliamente, con el fin de ser más espe140 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas cífico y certero en la selección tanto de la estrategia de comunicación como de la información que se le entregará a cada una de ellas. El evaluador debe tener en cuenta los siguientes aspectos para la identificación de los decisores o de los públicos involucrados y facilitar su análisis en la evaluación: • Un inventario de involucrados o interesados en la evaluación: El evaluador deberá hacer un listado con las personas e instituciones involucradas, voluntaria o involuntariamente, tanto con la intervención o el problema que aborda dicha intervención, como con las posibles soluciones y su control. Debe ser sistemático en su relación. Es aconsejable que comience por identificar los actores afectados por el problema; debe proseguir con aquellos involucrados en la fase de formulación de las propuestas de solución; y en la financiación de los recursos requeridos, la aprobación o legitimación de posibles propuestas de política, la ejecución o la implementación de las medidas, la utilización de los beneficios obtenidos y la evaluación. • Un interés particular en tomar una decisión o llevar a cabo una acción relacionada con la intervención o el problema que aborda. El evaluador debe identificar el posible interés que el actor analizado o el involucrado pueda tener en la situación o el problema identificado y caracterizarlo. Debe tener presente que no todos los actores explicitan sus intereses en el problema ni en sus posibilidades de solución. Ignorar este hecho puede significar un riesgo importante de resistencia y fracaso cuando se divulgen y se extiendan los resultados de la evaluación. Por el contrario, la confluencia de intereses puede ser uno de los factores que garantice el éxito en el uso de los resultados de la evaluación. Lo anterior implica no sólo saber quiénes son los grupos de involucrados o los públicos potenciales de la evaluación, qué intereses tienen en ella y en qué lugar se ubican dentro de la toma de decisiones, sino 141 Ligia de Salazar saber qué información necesitan y cuál es la mejor forma de comunicárselas. En la siguiente tabla se han ubicado las preguntas de mayor importancia para esta tarea; el evaluador puede agregar otras: PREGUNTAS RESPUESTAS REQUERIDAS ¿Quién necesita la infor- Lista de tomadores de decisiones y otras audiencias a quienes se mación? orientará su estrategia de comunicación. Posicionamiento frente a la intervención evaluada y a las decisiones que de ella resulten. ¿Qué necesita saber? Tipo de información. Proceso, resultados, impacto, eficiencia, eficacia, efectividad, costos de tecnologías e intervenciones, beneficios. ¿Cómo requiere saberlo? Tipos de medios. Formatos: escritos, visuales, audiovisuales, interactivos, orales (presentaciones, reuniones, etcétera). ¿Por qué necesita sa- Posicionamiento frente a la intervención. Intereses y expectativas, berlo? conflictos. ¿Para qué necesita sa- Decisiones que requiere tomar. Quiere empezar, mejorar o terminar berlo? un programa. Necesita orientar/persuadir una acción. Conocer beneficios. Ejercer abogacía y opinión pública. ¿Cuándo necesita sa- Oportunidad de la información. Período de inicio, medio o finaberlo? lización de un programa. Finalización de un periodo de gobierno o dirección. • Una fase en la cual el actor o el grupo de interés puede actuar o intervenir. El evaluador identificará para cada actor o grupo de interés las diferentes acciones, decisiones, fases o momentos que considere que puede y debe intervenir en el proceso de articulación evaluación-política; por ejemplo, podría hacerlo en la fase de formulación del problema, posicionamiento del problema o del tema en la agenda pública, formulación de la política; de legitimación o aprobación formal, financiación, ejecución o en la evaluación de la misma. • Una actitud potencial frente a la acción o la decisión. Con base en la información disponible es preciso formular hipótesis, y valorar cualitativamente la actitud de cada actor social como: muy desfavorable, desfavorable, indiferente, favorable o muy favorable, frente a las recomendaciones o resultados obtenidos y con respecto a la intervención en promoción de la salud evaluada. 142 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas 6. Definición de los objetivos de comunicación Los objetivos de comunicación no deben confundirse con los objetivos de evaluación, pero deben desprenderse de su propósito y responder a las necesidades o intereses potenciales de quienes, de una u otra manera, estén relacionados o se vean afectados por los resultados de la evaluación y de los posibles usos que los tomadores de decisión, incluyendo las comunidades, puedan dar a dicha evaluación. De acuerdo con la Comisión Europea (2003), una comunicación efectiva de la evaluación puede conducir a otros usos y beneficios adicionales: • Lograr el interés de gobiernos nacionales, autoridades regionales y locales y otros públicos en las intervenciones, así como de fuentes de financiación alternativas, que apoyen la ampliación o extensión de intervenciones exitosas. • Hacer visible la labor de las organizaciones o de las instituciones participantes, e incluso la del grupo evaluador, en la intervención local, nacional e internacional. • Promover el uso de los resultados de la evaluación en los diferentes organismos y los tomadores de decisión. • Fomentar buenas prácticas en la promoción de la salud, que sean el resultado de evaluaciones serias de la efectividad. 7. Selección de la estrategia de comunicación Una selección adecuada de la estrategia determina el éxito de la comunicación. La estrategia incluye la escogencia de medios, productos o canales de comunicación y la elaboración de la información en productos de comunicación con sentido y utilidad para los públicos identificados. Se debe reconocer que el ambiente para comunicar asuntos de salud e incidir en políticas ha cambiado significativamente. Esta comunica143 Ligia de Salazar ción puede darse en una variedad de contextos, usando diversos canales a través de múltiples mensajes, y por muchas razones. Los cambios también incluyen aumentos considerables en el número de canales de comunicación, de asuntos de interés en salud y de políticas que rivalizan por la atención del público, al tiempo que las comunidades y los diferentes grupos exigen más información, de mejor calidad y, por lo tanto, mejores y sofisticadas técnicas de mercadeo. En estos contextos, las personas no pueden prestar atención a toda la información que reciben, sino que lo hacen selectivamente. Dado que el objetivo final de la evaluación es proveer insumos para la toma de decisiones, será útil que el evaluador lleve a cabo actividades de comunicación dirigidas a tomadores de decisiones, con las fases preliminares de la evaluación. Sin embargo, el mayor desafío será hacer que las recomendaciones que se hagan sean tenidas en cuenta. Es recomendable ser creativo y desarrollar una estrategia multimedios –mix-communication-, teniendo en cuenta que los decisores y otras audiencias requieren información variada, que se entregue de diferentes formas y en distintos momentos. Igualmente, el evaluador preparará su estrategia de comunicación teniendo en cuenta los niveles y los tipos de decisiones que se deberán tomar –decisiones operativas, políticas, o económicas, entre otras–.Esto implica considerar, también, los momentos apropiados para la comunicación y su frecuencia o periodicidad. También es necesario hacer abordajes multiestratégicos, que involucren diferentes medios y modos de comunicación, y que tengan en cuenta los intereses, las necesidades y el uso de la información por los diferentes grupos de interés y tomadores de decisiones, deben ser considerados claves. Complementar con actividades de comunicación interpersonal, estrategias de alfabetización en salud a grupos específicos y con enfoque combinado de cambio de comportamiento y cambio social, es también relevante. Lo más recomendable es emplear estrategias de comunicación que puedan definirse por actores; es decir, diseñarlas de acuerdo con 144 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas los intereses y las motivaciones de los públicos potenciales, al igual que las de incidencia. Estas últimas estrategias son el conjunto de acciones concretas destinadas tanto a persuadir, convencer, como a negociar con el público la implementación de una determinada decisión o acción en política. Las dos primeras tienen más que ver con las estrategias de publicidad y seducción. La negociación y el diálogo son actividades propias de la comunicación social. En ese sentido, algunos autores hablan de tres tipos de estrategias de incidencia: de comunicación, de persuasión y de presión (Fundación Chasquinet, 2004). En el diseño de estrategias de comunicación de los resultados de la evaluación es necesario tener en cuenta las audiencias, un rango de actividades según sus características y los medios. Así mismo, se deben tener en cuenta variables que pueden ser categorizadas en: fuentes de información (origen y credibilidad); características de los receptores o usuarios potenciales; canales para la diseminación de la información; y manejo de la información misma, es decir, el mensaje y sus atributos, según el canal utilizado –por ejemplo, tono de voz, características visuales, colores, discursos persuasivos, entre otros-. Las estrategias de persuasión y de presión pueden dirigirse a los actores que estén indecisos sobre el curso de una decisión o política, o a quienes la han rechazado. Los mecanismos de movilización social pueden ser utilizados, aunque deben ser abordados cuidadosamente, ya que se requiere una base social sólida y fuerte para que los esfuerzos no sean infructuosos o contraproducentes. Selección de medios o canales apropiados De acuerdo con las características de los tomadores de decisiones y sus preferencias de información, el evaluador puede optar por una serie de medios o canales que le permitirán que su mensaje llegue tal como se quiere y como se ha planificado. 145 Ligia de Salazar Sin embargo, el evaluador debe tener en cuenta las diversas limitaciones que pueden obstaculizar esta tarea, entre ellas, el que para muchos políticos y otros tomadores de decisiones no es común utilizar este tipo de información, y el solo envío de publicaciones y algunas presentaciones sin contexto puede resultar insuficiente para lograr el objetivo (Zandbergen y Petersen, 1995). Por tanto, deberá hacer una cuidadosa selección de los medios. Las publicaciones que incluyen revisión de pares, sitios web especializados y congresos o eventos científicos son a menudo los principales medios de comunicación de los resultados de muchos estudios y evaluaciones (Comisión Europea, 2003). No obstante, hay que tener presente que su audiencia no es predominantemente científica y que se debe optar por la utilización de medios para públicos diferentes, especialmente políticos. De acuerdo con la información que obtuvo al identificar sus decisores y sus audiencias, así como sus intereses y preferencias, analice con su grupo los medios, canales o productos –escrito, visual, audiovisual, oral, interactivo, lúdico, informal– más pertinentes. Aunque podrán seleccionar los que consideren más apropiados, para esta tarea le sugerimos: • Planificar un producto de comunicación escrito, que sea breve, de rápida producción y distribución. Esto le ayudará a que la información llegue con mayor periodicidad a los tomadores de decisión, durante las diferentes fases del proceso de evaluación. • Seleccionar un medio escrito para llegar con la información de los resultados de la evaluación a políticos y otros decisores. Un reporte de evaluación con información relevante o un informe ejecutivo conciso y preciso son buenas opciones. El evaluador debe convertir sus datos en información con sentido para los decisiores, y presentarlos creativamente (tablas resúmenes, tablas comparativas, infografías, etc). 146 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas • Concertar reuniones ejecutivas con los decisores en las que se presenten y expliquen los resultados y las recomendaciones fruto de investigación, con la ayuda de medios audiovisuales. Para esto, es preciso que elabore presentaciones visuales o audiovisuales atractivas, de máximo quince minutos, para dar tiempo a preguntas y respuestas. • Emplear otros medios interpersonales complementarios. La comunicación cara a cara con algunos decisores clave puede resultar una oportunidad inigualable. El grupo de evaluación debe seleccionar un vocero permanente, con habilidades para realizar este tipo de actividad. Para muchos tomadores de decisiones los contactos informales resultan más importantes que los intercambios de boletines y reuniones (Trostle, Bronfman y Langer; 1999). • Identificar “emisarios” como medios alternos para reforzar los mensajes. Se deben considerar como emisarios al público en general, a un personaje con alta credibilidad, a personas que no constituyan amenaza política y a los medios masivos de comunicación, entre otros, que puedan ejercer abogacía (Comisión Europea, 2003). Si amerita, el evaluador puede crear opinión pública en torno a un resultado específico, una decisión determinada o una acción a seguir. También puede movilizar a las comunidades, de modo que sirvan como fuente de información y evidencia (Bates, 2004). • Valorar el papel de los medios de comunicación, especialmente los llamados masivos, y su utilidad para hacer que el público ubique el tema entre sus prioridades y en las agendas de discusión. La radio, la prensa y especialmente la televisión son medios contundentes para influir sobre grupos de interés en las esferas políticas y en las demás autoridades (Popham, 1993), y para “mantener en el foco” el tema que se necesite, gracias a la posibilidad de la repetición permanente de la información. El eva147 Ligia de Salazar luador debe tener en cuenta que los políticos son muy sensibles a estos medios y que la opinión pública puede ayudar a moldear su comportamiento. También, diversos estudios han coincidido en que alrededor del 60% del público en general, incluyendo los políticos, obtiene información y conocimiento especializado en periódicos, programas de televisión, radio, y cada vez se amplía también el papel de la Internet en la creación de conciencia y opinión pública (Comisión Europea, 2003). A través del trabajo de los medios de comunicación se puede dirigir la atención pública hacia determinado problema o asunto. La atención pública puede concebirse en dos puntos de vista diferentes: el del individuo expuesto a ella o ignorado por ella, y desde la perspectiva del acontecimiento colectivo, cuando cientos de miles o millones de personas observan su medio y hablan o se quedan callados, creando así la opinión pública. Aunque la influencia real de los medios sobre la opinión es mucho más compleja y aún es motivo de discusión, lo que sí se puede esperar es que los medios ayuden a poner en el “foco” de la atención los asuntos o problemas. Ésta es la función de la agenda-setting de Luhmann (2000); la selección de lo que debe ser atendido por el público, de lo que debe considerarse urgente o de los asuntos que deben importar a todos. Reconocemos que la sociedad organiza sus pensamientos sobre los objetos sociales según la configuración que los contenidos mediáticos les dan (Del Rey Morató, 1998). Es decir, la relación que los individuos mantienen con los objetos sociales aparece mediada por la comunicación. Una vez capturada la atención del público los medios de comunicación consiguen polarizar la atención y el pensamiento en torno a los objetos y temas propuestos. Por consiguiente, el evaluador debe tener en cuenta que antes que cambiar valores y actitudes los medios cambian la distribución 148 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas de la atención. Los medios de comunicación interfieren en la conformación de la agenda política, es decir, condicionan sobre el “qué” y el “qué no”, y afectan también el “cómo” (Durán Muñoz, 2002). Pero el tan mentado efecto de la “agenda-setting”, es decir de la configuración de la agenda política, no es un proceso que los medios puedan definir por sí mismos de forma unilateral. Ninguno de los grandes temas políticos fue inventado por los medios sino que llegaron a éstos a través del debate social de los acontecimientos que se van produciendo. Es una realidad que los medios están más interesados en el raiting que en la influencia política. Por ello, es fundamental valorar las capacidades para tener algo interesante qué decirle a los medios, en sus propios códigos y en respuesta a sus intereses, y que al mismo tiempo responda a los propósitos del posicionamiento del tema. Con respecto a lo anterior, el evaluador debe considerar las ventajas y las desventajas. Es verdad que los medios pueden lograr ciertos efectos en la imagen que el político tiene de determinada situación o programa, pero no se puede olvidar por ser formas indirectas de comunicación generalmente no tienen la posibilidad de alcanzar públicos específicos, de conocer inmediatamente su reacción, de explicar alguna información compleja ni de mantener el control de lo que se comunica. Al utilizar estos medios el evaluador está obligado a presentar sus resultados de una manera interesante, clara, precisa, sin ambigüedades, corta, en el lenguaje y periodicidad de los medios, como oportuna y fácil; pero también debe considerar las posibles consecuencias políticas de que los datos se conviertan en algo público. • Aprovechar oportunidades alternas de comunicación, tales como presentaciones en diferentes reuniones, eventos científicos e información en prensa especializada y no especializada. De acuerdo con sus necesidades usted puede optar por otros canales 149 Ligia de Salazar de comunicación (artículos, foros, poster, boletines, conferencias, entrevistas, Internet, etc). Recomendaciones para elaboración de contenidos y discursos comunicativos • Responder a la pregunta ¿qué debo hacer? El evaluador puede ayudar a orientar y tomar la decisión. Puede mostrar si está alentando a los decisores a hacer algo, a realizar una intervención diferente o a darle un abordaje distinto a la intervención evaluada. Debe responder al tomador de decisiones qué hacer, y recomendarle si lleva a cabo o no la intervención y por qué, y qué debería hacer si ya la está implementando (Potvin y McQueen, 2008). La estrategia de comunicación debe especificar claramente cuál es la acción que se sugiere que los decisores tomen, qué beneficios traería o qué consecuencias deberán experimentar, si fuera el caso. El análisis del contexto de la intervención debe ser también considerado para enmarcar la presentación, la explicación y la comprensión de los resultados. Las recomendaciones que se le den al tomador de decisiones deben considerar los posibles escenarios tanto positivos como negativos para la implementación de la acción sugerida. Un cambio drástico de escenario o de contexto dificultará adoptar una decisión. • Hacer recomendaciones prácticas y mostrar que son factibles de implementar. El evaluador mostrará no sólo evidencia convincente, sino implicaciones claras. Puede detallar en sus resultados, por ejemplo, si hay ventajas relativas –comparar lo de antes y lo de ahora–, compatibilidad –si lo hecho se ajusta a las necesidades–, complejidad –si es fácil de adoptar los cambios que se sugieren– y si hay posibilidades de visibilidad de lo hecho, entre otros aspectos. Debe prestar atención a la viabilidad no solo técnica, sino política del uso de los resultados y mostrarla en su mensaje. También es necesario establecer referencias o situaciones que muestren que los resultados son pertinentes y útiles para 150 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas la definición de políticas. Debe referirse a problemas concretos que enfrente el tomador de decisiones, no a áreas de decisión irrelevantes para éste, y hacer recomendaciones ideológicamente aceptables y que no violen las restricciones políticas específicas que enfrenta aquel tomador. El evaluador no tiene por qué extenderse para llegar a una recomendación. Es preferible exponer primero la acción que debe ser tomada y luego las explicaciones que le precedan. El evaluador puede estructurar su texto y sus párrafos en orden de importancia; es decir, dejar para el final del texto narrativo lo que considere menos relevante. • Tratar de llenar vacíos de información sobre el tema o la intervención objeto de la evaluación. El evaluador debe mostrar los factores que han contribuido a los resultados, y construir el cuerpo de evidencias o señales de efectividad relevantes. Así mismo, es recomendable que escriba información que muestre si la intervención funciona y logra lo que se pretende, cuándo y en qué condiciones lo hace, qué cambios surgen en esos logros, en los cuales se observan más claramente sus resultados y sus beneficios. • Ser preciso y coherente en los resultados y hacer énfasis en los que se relacionen con los objetivos de la intervención. El evaluador revisará cómo se respondió la pregunta de evaluación y redactará claramente la respuesta; debe comunicar no sólo aquellas partes con resultados positivos o halagadores para el programa evaluado, sino que también debe decir si los resultados arrojaron evidencia insuficiente, para así poder determinar que la intervención es efectiva, o si la intervención no logra los efectos deseados, y los factores que han intervenido. Debe indicar si se requieren estudios futuros y cuáles serían los más apropiados para alcanzar la información que se desea obtener. 151 Ligia de Salazar Detalles prácticos • Sea claro(a). Utilice términos que le den más ventaja comunicativa con su audiencia; es decir, que sean comprendidos fácilmente por personas no expertas en el tema. No utilice jergas y opte por “renombrar” algunas palabras en su discurso, evitando términos técnicos. • Sea oportuno(a) en su información y téngala disponible. Identifique productos intermedios que puedan utilizarse más rápidamente y los momentos de oportunidad para intercambiar y proveer conocimiento a tiempo. Esto es muy importante en el caso de decisiones que deban ser tomadas a corto plazo. • Recuerde incluir en sus productos de comunicación los créditos y los reconocimientos a las instituciones u organizaciones que hayan apoyado técnica y financieramente la evaluación, así como identificar quién asume la responsabilidad por la evaluación y sus resultados; es decir, el autor o autores. • No descuide el buen estilo de sus discursos, ya sea mediante medios audiovisuales o productos orales, escritos o de otra naturaleza. Seleccione un mensaje principal y desprenda de él mensajes primarios y secundarios; esto evitará que usted se “vaya por las ramas”. Evite la retórica y la demagogia, usted debe no sólo persuadir y convencer, sino hacer que se comprenda lo que quiere decir. • Evite caer en las siguientes tentaciones cuando comunique los resultados de la evaluación: convertir la evaluación en un elogio a quien la patrocina o la realiza, y utilizar la evaluación como instrumento de dominación o control (Santos Guerra, 1993). 8. Valoración de los resultados de la estrategia Un proceso de comunicación no termina cuando la información es entregada. Para valorar qué tan efectiva es la estrategia el evaluador 152 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas debe identificar qué resultó exitoso y qué se debe mejorar; así mismo, debe establecer mecanismos que le permitan dialogar con las audiencias para conocer sus percepciones sobre la información entregada, los canales utilizados y el interés del mensaje, saber cómo la procesaron, la motivación para su uso, entre otros aspectos, para así completar el ciclo de la comunicación. Una medida básica es caracterizar y cuantificar los productos de comunicación e identificar los resultados primarios obtenidos. Del mismo modo, debe realizar un archivo organizado de los productos de comunicación, y que esté disponible. 153 Ligia de Salazar BIBLIOGRAFÍA Alvarez-Dardet, C. (s.f.). Las bases de la promoción de la salud. España. Auriat, N. (s. f.). “Las políticas sociales y la investigación social: reapertura del debate”. [En línea], disponible en : http://www.unesco.org/issj/ rics156/auriatspa.html Recuperado: el 21 de marzo de 2001. Bronfman, M.; Langer, A. y Trostle, J. (2003). De la investigación en salud a la política: la difícil traducción. Editorial El Manual Moderno. México. Castells, M. (1999). La sociedad red. México. Madrid: Siglo Veintiuno. Comisión Europea (2003). A guide to successful communications. European research. Sixth Framework Programme. Cuervo, J. (2007). “Las políticas públicas: entre los modelos teóricos y la práctica gubernamental”. En: Ensayos sobre Políticas Públicas. Universidad Externado de Colombia. De Pouvourville, G. (1999, octubre - diciembre). “Public Health Research: between science and action?”. En: Cad. Saúde Pública, vol.15, núm. 4. Río de Janeiro. De Salazar, L. (2004). Evaluación de Efectividad en Promoción de la Salud. Guía de Evaluación Rápida. Universidad del Valle. CEDETES, Cali. De Salazar, L. (2000). Evaluación de Tecnología en Salud: Vínculo crítico entre ciencia y política. Centro para el desarrollo y evaluación de 154 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas tecnología en salud pública. CEDETES. Universidad del Valle. Cali, Colombia. Del Rey Morató, J. (1998). Democracia y Posmodernidad. Teoría General de la Información y Comunicación Política. Editorial Complutense. Madrid, España. Deutsch, K. (1985). Los nervios del gobierno. Medios de comunicación y control político. Editorial Paidós Mexicana. México. Durán Muñoz, R. (2002). La mediatización de la democracia en la sociedad de la información. Universidad de Málaga. Fagen, R. (1969). Política y comunicación. Editorial Paidos, Buenos Aires. Figueroa, H. (2006). Las tecnologías de información y comunicación en la facultad de ciencias sociales. UPR-RRP. Río Piedras: Cuadernos Adelantos de Investigación. Centro de Investigaciones Sociales. Facultad de Ciencias Sociales. Recinto de Río Piedras de la Universidad de Puerto Rico. Fundación Chasquinet (2004). “Manual práctico para telecentros comunitarios sobre políticas públicas y regulación en materia de tecnologías de información y comunicación, TIC”. [En línea], disponible en: www. tele-centros.org/politicas/manualpoliticaspublicas.htm Recuperado: 10 de enero de 2009. Lasswell, H. (1958). Who gets what, when, how. World Publishing Co., Cleveland Luhmann, N. (2000). La realidad de los medios de masas. Anthropos, Madrid Majone, G. (1997). Evidencia, argumentación y persuasión en la formulación de políticas. México. Fondo de Cultura Económica. El Colegio de México. Noëlle-neuman, E. (1995). La espiral del silencio. Opinión pública: nuestra piel social. Paidos. Barcelona. Roth, A-N. (2004). Políticas Públicas. Formulación, implementación y evaluación. Bogotá, Ediciones Aurora. 155 Ligia de Salazar Pellegrini, A. (1998). “La cooperación técnica entre países en información en ciencias de la salud”. En: Packer, A. y Castro, E. (edits.), Biblioteca virtual en salud. São Paulo: Bireme, BC Gráfica Editora. Pellegrini, A. (2000). Ciencia en pro de la salud. Notas sobre la organización de la actividad científica para el desarrollo de la salud en América Latina y el Caribe. Publicación científica y técnica No 578. Organización Panamericana de la Salud. Washington, D.C. Popham, W. (1993). Educational Evaluation. Boston: Allyn and Bacon. Pool, I. (1974). “Comunicación Política I. Introducción”. En: Sills, D. (Director) Enciclopedia internacional de las ciencias sociales. Volumen 2. Aguilar de Ediciones, Madrid. Potvin, L. y McQueen, D. (2008). Health promotion evaluation practices in the americas values and research. New York. Rossi, P. y Freeman, H. (1993). Evaluation: A systematic approach. Sage Publications, Newbury Park, Calif. Rota, J. (2000). “Comunicación, gobierno y ciudadanía. CLADE, Venezuela”. [En línea], disponible en: www.clad.org.ve Recuperado: el 11 de enero de 2009. Sampedro Blanco, V. (1996). “Batallas de papel. Medios de comunicación y nuevos movimientos sociales”. En: Revista de estudios de comunicación. Komunikazio Ikasketen Aldizkaria. Abendua Sánchez, E. (2005). Medios de comunicación y democracia. Grupo Editorial Norma. P.23. Segura, A. (2000). “La influencia de la investigación en las políticas de salud y en la práctica sanitaria”. En: Revista Española de salud pública, vol. 74 (monográfico). Tiana, A (1997). “Tratamiento y usos de la información en Evaluación. Uned”. [En línea], disponible en: http://www.campus-oei.org/calidad/tiana. htm Recuperado: el 20 de marzo de 2009. Trostle, J., Bronfman, M. y Langer, A. (1999). “How do researchers influence decision-makers? Case studies of mexican policies”. En: Health policy plan, vol. 14, núm.2, págs103–114. 156 Reflexiones y posiciones alrededor de la evaluación de intervenciones complejas Weiss, C. (1984). “Increasing the Likelihood of Influencing Decision”. En: Rutman, L.: Evaluation Research Methods: A Basic Guide. Segunda edición. Age Publication, págs 159-190. Weiss, C. (1986). “The Many Meanings of Research Utilization”. En: Social science and social policy, págs 30-40 M. Bulner (comp.). Auriat, N. (s.f.) “Las políticas sociales y la investigación social: reapertura del debate”. [En línea], disponible en: http://www.unesco.org/issj/ rics156/auriatspa.html Recuperado: el 20 de marzo de 2009. Weiss, C. (1991). “Policy research: data, ideas or arguments?”. En: Wagner, P., Weiss, C., Wittrock, B. y Wollman, H. (comps.) Social sciences and modern states.Cambridge University Press. Págs 307-332. Weiss, C. (1999). “The Interface Between Evaluation and Public Policy”. En: Evaluation: the international journal of theory, research, and practice. White, F. (1998, julio). “De la evidencia al desempeño: cómo fijar prioridades y tomar buenas decisiones”. En Revista panamericana de salud pública, vol. 4, núm. 1,Washington, D.C. Zandbergen, P. y Petersen, F. (1995). The role of scientific information in policy and decison-making. Resource Management and Environmental Studies. University of British Columbia, Vancouver, BC, Canadá. 157 Ligia de Salazar 158