Weight Loss Program
 |  Spanish  -->

Si quiere guardar su trabajo en línea en el formulario del Marco Lógico, favor de utilizar su nombre de usuario y contraseña.



Módulo 7: Analizar los datos

Step 3

Paso 3: Interpretar los hallazgos

Ahora que se cuenta con los hallazgos derivados del análisis, se necesitará describir lo que significan. Esto será especialmente difícil si los hallazgos son diferentes a lo que se esperaba. Habrá que realizar ciertas acciones para interpretar los hallazgos, de tal forma que tengan sentido para

las actores interesados
el público a influenciar
el programa

Importante: ¡Recordar que los hallazgos no significan nada en sí mismos! Su significado proviene de la realidad del programa y de la vida de las personas involucradas.

Tarea 1: Comprender los aspectos de los hallazgos que sean particularmente inesperados, tanto para la persona líder cómo para el resto del Equipo de MyE

Ellos pueden deberse a:

  • Factores independientes que interfirieron en que el programa tuviera los resultados deseados. Todos los programas de SDSR ocurren en el mundo real. Ello significa que otros aspectos que no tienen que ver con el programa, también pueden influenciar los resultados. Ejemplo: Un programa diseñado para ayudar a padres y madres de familia a que se expresen con sus hijos e hijas más abierta y positivamente acerca de la sexualidad, puede tener resultados menos positivos que los esperados, debido a que una nueva radio novela pudo haber infundido en los padres y las madres vergüenza y temor acerca de la sexualidad; o por el contrario, tuvo resultados positivos porque los grupos tanto del programa como de comparación estuvieron expuestos a un nuevo y bien informado programa de TV que les preparó y predispuso favorablemente a hablar del sexo con sus hijos e hijas.
  • Problemas con los datos recolectados. Las evaluaciones no son infalibles, por lo que puede concluirse que algún aspecto en la recolección de datos o el análisis condujo a resultados falsos. Si este fuera el caso, se necesitaría determinar qué fue lo que salió mal en la manera de recolectar los datos. Debe darse marcha atrás y verificar los formularios originales de la recolección de datos, discutir la situación real de la recolección de datos con las personas que la realizaron, y verificar si hubo errores en la codificación. Desde luego, si no se encuentra errores, se necesitará hacer frente al hecho de que los resultados fueron decepcionantes, y se deben utilizarlos para mejorar el programa.
  • Que es demasiado pronto para demostrar resultados. La evaluación y los hallazgos pueden ser prematuros. Quizá el programa ha estado operando solamente durante seis meses, y se espera encontrar cambios importantes que se verán tiempo después. Es necesario recordar que los programas de SDSR influyen en procesos sociales complejos que requieren tiempo para cambiar. Habrá que asegurar que se continúe con el monitoreo del programa y que se mida los resultados inmediatos que puedan conducir a los resultados intermedios que se espera encontrar.
  • Que no se haya especificado los resultados inmediatos correctamente y por lo tanto, no se perciba los cambios anticipados o deseados.
  • Factores que no se tomaron en cuenta en la planeación del programa. Si la teoría del cambio o la senda causal del programa fueron deficientes, pudieron existir brechas importantes que no se tomaron en cuenta, haciendo que el programa fuera menos eficaz que lo esperado. Si se pudo recolectar alguna información acerca de dichas brechas, identificadas en el Módulo 2, será posible explicar por qué los resultados no fueron tan buenos como lo esperado. Se debe trabajar con el personal del programa para identificar lo que hace falta y realizar los cambios necesarios.
  • La falta de eficacia del programa. Si se analiza los resultados a fondo, y estos no muestran algún beneficio derivado del programa, se deberá realizar cambios significativos al programa o dejar de ejecutarlo. La historia de la salud pública y del desarrollo está llena de ejemplos de programas que terminaron o fueron modificados justamente por esta razón.
    • Quizá el programa sea bueno pero constituye una intervención demasiado pequeña como para producir el resultado esperado. Por ejemplo, si se intenta combatir la homofobia, la producción de un sólo cartel o un conjunto de mensajes radiales quizá no sean suficientes para tener el efecto esperado, a pesar de que el programa esté cumpliendo con sus metas, y los productos sean atractivos y culturalmente relevantes. La evaluación también debe identificar cambios inmediatos e intermedios que puedan demostrar la eficacia del programa de manera gradual y parcial.
  • Los resultados son demasiado buenos. Aunque resulte difícil hacer esto, si los resultados son mucho más positivos que lo esperado, debe resistirse la tentación natural de suponer que todos son debidos al programa. Hay que preguntarse si algo más sucedió que pudo haber influenciado los resultados. Es mejor ser cauteloso que demasiado confiado, a menos que el análisis aporte suficiente evidencia para indicar que los resultados son reales y que están directamente relacionados con el programa.

    => Reunirse con los actores interesados clave

    • Convocar pequeños grupos de discusión con las y los beneficiarios del programa. Preguntarles acerca de sus percepciones del programa y de las preguntas que se les plantearon acerca del mismo. Mostrarles los resultados encontrados y preguntarles si están de acuerdo o en desacuerdo, así como lo que significan los hallazgos. Ejemplo: El equipo de MyE ha decidido convocar a un grupo focal con algunas de las personas jóvenes que participaron en un programa de educación sexual. Los hallazgos muestran niveles de actividad sexual más altos después del programa. Se ha solicitado a las y los jóvenes que analicen los instrumentos de la encuesta y que indiquen si hubieran contestado en forma diferente antes y después del programa. La mayoría de jóvenes dijo que había mentido en la encuesta de línea base por temor a que la información fuera utilizada en su contra. En el cuestionario de evaluación posterior al programa, fueron más honestos/as, pues el propio programa había creado un mayor nivel de confianza. Ciertamente, esta información debe reportarse para que la gente no piense que el programa fue un fracaso cuando en realidad tuvo éxito en ayudar a la gente joven a sentirse más cómoda al hablar del sexo, ¡lo cual es una clave para tener una sexualidad más saludable a largo plazo!
    • Es necesario reunirse con el personal que estuvo involucrado en el programa. Preguntarles lo que significan los hallazgos para ellos. Ejemplo: El personal de un programa de educación sexual puede haberse dado cuenta que originalmente la gente joven había tenido temor de revelar sus experiencias sexuales al principio del programa, pero que se abrió durante las discusiones participativas. El personal también puede haber observado que las y los jóvenes respondieron el cuestionario de línea base cuando todavía estaban en la escuela primaria, pero que contestaron el cuestionario de evaluación posterior al programa, cuando ya estaban en la secundaria, cuando el desarrollo y la exploración sexuales forman parte normal del proceso de desarrollo, y posiblemente cuando las relaciones sexuales son más aceptables o alentadas por los grupos de pares nuevos y mayores.
    • También es necesario reunirse con otros actores interesados de la comunidad que conocen el programa y sus participantes para comprender lo que significan los hallazgos. Es posible que dichas partes puedan explicar de una manera más completa, el contexto de los resultados inesperados. Por ejemplo: Aunque se podría pensar que un programa de apoyo social para mujeres embarazadas de alto riesgo tuvo muy poco efecto en la frecuencia con la que las mujeres acudieron a una determinada clínica para la atención prenatal, los actores interesados pueden saber que las mujeres fueron a una clínica diferente que había abierto con precios muy bajos, por lo que las mujeres participantes en el programa habían acudido a mayor número de consultas que las del grupo sin intervención, aunque no a la clínica esperada.

    => Comparar los hallazgos con los que otros grupos han obtenido

    • Revisar la literatura existente sobre programas similares
      • tratar de encontrar ejemplos de casos similares a los propios
      • buscar hallazgos ajenos que contrasten con los propios, de tal forma que se haga necesario explicar las diferencias. En dichos casos, analizar cuidadosamente las fuentes de los datos, los instrumentos utilizados, así como las diferencias en los programas y las poblaciones atendidas
    • Presentar los hallazgos a colegas en otras organizaciones que trabajan en áreas similares
      • ¿Dichas personas han observado el mismo tipo de hallazgos inesperados? ¿Qué interpretación dieron ellas a los hallazgos?

    Tarea 2: Realizar análisis que puedan contribuir a saber si los hallazgos son el resultado del programa

    • Utilizar los datos de monitoreo para saber si hubo diferentes niveles de exposición entre los diferentes subgrupos, y cómo se relaciona ese hecho con los hallazgos. Ejemplo. Si los hallazgos de la evaluación mostraron que las niñas y los niños tenían un mayor conocimiento sobre el VIH, pero los datos de monitoreo muestran que muy pocas niñas asistieron al centro juvenil, no se podrá atribuir los hallazgos positivos al programa. En un grupo focal con jóvenes entrevistados/as durante la evaluación, podría encontrarse que al mismo tiempo que el programa analizado, se transmitió un nuevo programa de TV muy popular que incluyó un importante componente educativo sobre el VIH, y que las niñas lo estuvieron sintonizando fiel y regularmente (puesto que eran retenidas en casa por sus padres/madres después de la escuela).
    • Utilizar los datos de monitoreo para que revelen si ocurrieron otros factores que pudieron haber influenciado los resultados. Ejemplo. Al revisar los informes de campo, posiblemente se encuentre que las personas que recolectaron los datos observaron aumentos en la violencia doméstica entre las mujeres que asistían a las clases de alfabetización del programa, esto como un resultado negativo inmediato no planeado. Aunque el programa ya haya incorporado dichas observaciones, y haya tratado de resolver el problema, pudo haber sido demasiado pronto para que los nuevos cursos motivacionales con los esposos de las mujeres en cuestión, tuvieran un impacto positivo en los resultados finales o intermedios.
    • Si los datos de monitoreo son insuficientes, habrá que complementarlos, convocando a una reunión con el personal del programa, para discutir las formas en que consideran que los resultados puedan o no relacionarse con las características del programa. Se necesitará hacer un esfuerzo para hacerles sentir cómodos al hablar de lo que no funciona del programa. Será mejor si se tiene preparado un conjunto de preguntas, con el fin de concentrarse en la explicación de los hallazgos. Ello mantendrá la discusión alejada de las críticas al trabajo del personal.
    Seleccione un término del menu

    Noticias

    Taller - Conferencia: Family Planning Research and Best Practices. 18 de noviembre, 2009. Kampala, Uganda.


    Exposición - American Public Health Association. 7 a 11 de noviembre, 2009. Filadelfia, Pensilvania, Estados Unidos.


    Taller - Centro Internacional Margaret Sanger de Planned Parenthood de la Ciudad de Nueva York. 22 y 23, 27 y 28 de octubre, 2009. Santo Domingo, República Domincana.

     

    Para más información: ppnyc@stepstoolkit.org