Research Resources

Assessing viability and building relationships

Authors
Elisabeth O’Toole
Kim Gannon
Contributors
Jacob Binder
Summary

Cette ressource donne des indications aux chercheurs pour effectuer des recherches préliminaires et mener les premiers échanges avec un responsable de mise en œuvre qui manifeste de l’intérêt pour les évaluations aléatoires et avec lequel un partenariat semble viable. Les conseils qu’elle fournit pour mener ces discussions préliminaires ont un objectif double : établir des relations de travail solides et déterminer la faisabilité et la pertinence d’une évaluation aléatoire dans le contexte du partenaire. Bien qu’elle comprenne principalement des conseils généraux destinés aux chercheurs, vous trouverez également en bas de cette page des ressources spécifiques à J-PAL pour le personnel, les membres affiliés et les chercheurs invités.

Introduction

Les premiers échanges avec un partenaire potentiel ont un objectif double : (1) recueillir suffisamment d'informations pour évaluer la faisabilité matérielle et statistique d'une évaluation aléatoire, et (2) établir de bonnes relations de travail avec les principaux acteurs. En mettant à profit ces premières discussions pour débattre des questions de recherche, de la mesure des variables de résultats, des objectifs et des priorités, les chercheurs et les partenaires peuvent déterminer ensemble s’il est dans leur intérêt de procéder à une évaluation aléatoire.1 

Identifier les partenaires potentiels

Pour chaque projet et chaque partenaire de mise en œuvre potentiels, il est essentiel d’effectuer des vérifications préalables indépendantes afin de pouvoir prendre une décision éclairée concernant 1) la faisabilité d’un ECR et 2) la compatibilité des intérêts et des motivations des deux parties. Identifier le bon partenaire peut prendre du temps. Les conseils fournis dans ce document aideront les chercheurs à éviter certains écueils, comme sélectionner un partenaire de manière précipitée pour des raisons de commodité, de réputation ou de calendrier. Procéder à des vérifications préalables implique souvent d’explorer d’autres options afin de prendre la meilleure décision possible, tant pour le chercheur que pour le partenaire de mise en œuvre.  

Les chercheurs qui découvrent un nouveau domaine thématique ou une nouvelle zone géographique peuvent s’appuyer sur des stratégies comme la recherche documentaire, l'exploration des réseaux professionnels et même la participation à certains événements régionaux et nationaux réunissant les parties prenantes. Ces démarches constituent un point de départ utile pour les chercheurs, à qui elles permettront de mieux connaître les différents acteurs (ONG, gouvernement, etc.) qui œuvrent dans des domaines d'intérêt particuliers.   

Conseils :

  • Consultez les bases de données de recherche des ONG et des programmes gouvernementaux dans le pays ou la région qui vous intéresse et identifiez les programmes qui vous semblent intéressants et pertinents.
  • Examinez les appels d’offres et les offres de financement (comme celles de la Banque Mondiale), qui comportent souvent des éléments de mise en relation pour les chercheurs et les partenaires de mise en œuvre.
  • Exploitez votre réseau et vos éventuelles connaissances communes pour être mis en relation avec des partenaires potentiels, sans hésiter à nouer de nouveaux contacts par ailleurs. Gardez à l'esprit que si les prises de contact spontanées par téléphone ou par e-mail peuvent s'avérer fructueuses, c’est une approche qui nécessite généralement plus de temps et de détermination pour porter ses fruits.
  • Repérez les événements à venir qui réunissent des praticiens et des chercheurs, en particulier des praticiens susceptibles d’être particulièrement intéressés par une évaluation d’impact rigoureuse. Par exemple, les pages dédiées aux événements sur les sites de J-PAL, d’IPA, de 3IE et de CGDev sont d’excellentes ressources pour repérer des événements intéressants à venir.
  • Si vous envisagez de conclure un partenariat avec un gouvernement, lisez l’article Researchers Should Collaborate With Governments for Both Sides to Be More Effective.

Premiers échanges avec un partenaire potentiel

Une fois que vous avez déterminé où et comment entrer en contact avec des partenaires potentiels, l’étape suivante consiste à préparer les sujets à aborder pour évaluer la possibilité d’une collaboration. En règle générale, les premiers échanges, dédiés à la prise de contact et au cadrage initial, sont l’occasion de se renseigner sur l’organisation du partenaire potentiel (son histoire, son financement, sa trajectoire), sur ses programmes (objectifs, capacités, systèmes de suivi), et sur son intérêt pour l’apprentissage et l’évaluation. Ces discussions vous renseigneront quant à la volonté du partenaire potentiel d’en savoir plus sur ses propres programmes, indépendamment des résultats obtenus. Lors de ces échanges, faire l’effort d’utiliser le même vocabulaire que le partenaire (en déterminant, par exemple, s’il qualifie ses bénéficiaires de patients ou de clients, et en utilisant ce terme plutôt que celui de participants), peut contribuer à renforcer la confiance et le respect mutuel.

Voici quelques suggestions pour ces discussions préliminaires :2

  • Instaurez un climat de confiance en plaçant les besoins et les contraintes de votre partenaire au centre de vos discussions, plutôt que de vous concentrer uniquement sur le protocole de recherche « idéal ». Interrogez les principaux acteurs, comme les responsables du programme et les prestataires de services de première ligne, afin de bien comprendre leur programme, ce qu’ils espèrent apprendre et les défis auxquels ils font face. Ces conversations vous fourniront les renseignements nécessaires pour affiner votre question de recherche et vous permettront de recueillir des informations pertinentes pour la faisabilité et la conception de l’étude. Par exemple, une discussion sur le nombre d’individus desservis au cours d’une période donnée peut remplir le double objectif d’informer les calculs de puissance et de mieux cerner le programme et le partenaire. 
  • Assurez-vous que les objectifs du partenaire pour ce partenariat universitaire sont conformes à ce que les chercheurs peuvent promettre. Par exemple, si un partenaire espère « prouver » l’efficacité d’une composante de son programme, précisez-lui bien que vous ne pouvez pas garantir des résultats positifs. De même, si un partenaire attache une grande importance à une variable de résultat pour laquelle la puissance statistique est insuffisante, il est important de lui expliquer clairement les risques liés à la réalisation d’une évaluation avec une puissance statistique trop faible.3 Sur la base de cette conversation, évaluez la façon dont le partenaire est susceptible d’utiliser les résultats de l’étude ou d’y réagir, que ces résultats soient positifs, négatifs, neutres ou peu concluants. Assurez-vous également qu’il comprend que vous avez l’intention de publier ces résultats, quelle que soit l’issue de l’évaluation. Notons qu’il peut y avoir des situations avantageuses où, bien que les objectifs des chercheurs et des partenaires ne soient pas totalement alignés, atteindre les objectifs des deux parties ne représente qu’un coût marginal très faible. Cependant, identifier un modèle qui soit réalisable tout en répondant à la fois aux objectifs des partenaires et des chercheurs est souvent un processus itératif. 
  • Présentez le concept fondamental d’évaluation aléatoire, les opportunités de randomisation ainsi que les études ou les possibilités d’assignation aléatoire similaires. Cette conversation permettra d’évaluer dans quelle mesure le partenaire potentiel est disposé à intégrer l’assignation aléatoire dans ses activités et d’identifier les difficultés potentielles.4
  • Renseignez-vous sur les contraintes de temps ou de ressources auxquelles le partenaire potentiel pourrait éventuellement faire face. Assurez-vous qu’il est bien conscient de la durée du processus de recherche et de la durée probable de sa propre participation. Si le partenaire potentiel n’a jamais participé à une étude universitaire, il est possible que les délais soient beaucoup plus longs que ce à quoi il s’attend. En outre, il est important de tenir compte de la trésorerie disponible pour financer à la fois les ressources de la recherche et du programme avant de décider de conclure un partenariat.
    • Remarque : Dans la plupart des cas, il faut compter au moins 3 à 4 mois pour l’établissement du partenariat entre le chercheur et l’organisme de mise en œuvre, l’élaboration du projet et la phase pilote. L'enquête initiale peut nécessiter plusieurs mois supplémentaires.
  • Établissez un partenariat d’égal à égal. Manifestez votre volonté de concevoir une étude qui soit adaptée au contexte et perturbe le moins possible les activités du partenaire, tout en respectant ses idées et sa connaissance du contexte. Cela contribuera à dissiper les inquiétudes éventuelles concernant l’impact de l’étude sur la communauté et le partenaire.5 Il est essentiel que toute l’équipe de recherche partage cette vision du partenariat et la garde à l’esprit tout au long de l’étude.
  • Identifiez un référent au sein de l’organisme partenaire. Il peut s’agir de votre interlocuteur initial ou d’une personne ayant un intérêt particulier pour la recherche ou de l’expérience dans ce domaine. Par exemple, un cadre supérieur qui manifeste spontanément le désir de comprendre si son programme fonctionne et selon quels mécanismes, peut contribuer à développer une vision ambitieuse pour le partenariat, à le mettre en œuvre, à faciliter le soutien à tous les niveaux (y compris l'adhésion horizontale) et à assurer la pérennité du projet (Carter et al. 2018).6 

Sur la base de ce travail préparatoire, les chercheurs et les partenaires peuvent commencer à discuter de la forme que pourrait prendre une évaluation aléatoire dans leur contexte, en gardant à l’esprit que l’assignation aléatoire peut se décliner sous de nombreuses formes7 en fonction de la question de recherche et des besoins des différentes parties prenantes. Les partenaires potentiels n’ont pas forcément le bagage technique ou scientifique nécessaire pour comprendre les avantages et les inconvénients d’un modèle d'évaluation donné, ni pour identifier le protocole expérimental le plus adapté à leurs objectifs. 8 Les chercheurs doivent donc leur fournir les informations dont ils ont besoin pour prendre des décisions éclairées concernant leur participation à l’évaluation aléatoire et le modèle d’étude proposé.

Recherches préliminaires détaillées

Si les premiers échanges avec le partenaire potentiel semblent prometteurs, les chercheurs peuvent commencer à réfléchir plus en détail aux questions de recherche et à la conception de l’étude. Outre la revue de littérature, les recherches préliminaires peuvent inclure la poursuite des discussions avec le partenaire potentiel.[!9] Ces échanges, combinés à des recherches documentaires, des visites sur le terrain ou des groupes de discussion peuvent fournir des éclaircissements sur les points suivants : 

  • Le fonctionnement du programme dans la pratique. Il s’agit notamment de savoir si la prestation de services se déroule conformément à la façon dont le programme a été conçu, d’évaluer l’ampleur des variations (tant formelles qu’informelles) dans la mise en œuvre du programme et de connaître l’historique des modifications apportées au programme ainsi que les changements potentiels à venir. Ces renseignements permettront également de savoir à quel niveau il serait possible et éthique de procéder à l’assignation aléatoire, et d’identifier les personnes susceptibles d’être recrutées et d’accepter de participer à l’étude, ainsi que les menaces potentielles qui pourraient peser sur le protocole de recherche. 
  • Des informations détaillées sur le programme et le partenaire. Il s’agit notamment de la trajectoire de croissance, de la taille de l’échantillon, de la période pendant laquelle les individus bénéficient des services, du taux de conservation des effectifs et des capacités en matière de données. Le fait qu’un partenaire recueille des informations sur les aspects pertinents du programme dès les toutes premières discussions est un signe encourageant de sa volonté de collaborer à l’évaluation et de sa capacité à fournir des données pertinentes. Ces détails peuvent permettre de déterminer si le partenaire dispose des moyens techniques et logistiques nécessaires pour mettre en œuvre le programme, atteindre les objectifs en matière de participation et fournir les données nécessaires à l’évaluation. 
  • Le personnel clé et autres parties prenantes. Il peut s’agir de membres du personnel de l’organisme partenaire ou d’acteurs extérieurs, tels que des donateurs ou des partenaires gouvernementaux. Recueillez des informations sur leur rôle, leur participation à la prise de décision, leur connaissance de la recherche et les relations qui les unissent.
  • Un calendrier des principaux changements qui risquent d’affecter le programme, tels que :
    • La mise en œuvre d’un programme similaire dans la même zone
    • Une modification des systèmes de données ou des processus de traitement des données
    • Des changements dans le financement du programme
  • Les conséquences potentielles de la mise en œuvre de l’étude pour la communauté ou les individus, y compris :
  • La représentativité du contexte communautaire ou de la population étudiée. Les communautés ou les partenaires qui sont disposés à participer à un programme pour les besoins d’une évaluation aléatoire sont susceptibles de réagir différemment à l’intervention par rapport à ceux qui s’y refusent (Allcott 2015). 
  • Les sources d’inquiétude potentielles concernant la recherche ou l’évaluation aléatoire. Comprendre le rapport qu’entretient la communauté avec le milieu universitaire, la recherche et les chercheurs, en se renseignant notamment sur toute autre étude en cours dans la région, toute impression de forte lassitude suite à de précédentes enquêtes ou toute étude passée perçue comme nuisible par la communauté, peut aider les chercheurs à anticiper les difficultés ou les inquiétudes potentielles de leurs partenaires. Ces inquiétudes peuvent notamment concerner des groupes que leur situation rend vulnérables à la manipulation ou des controverses préexistantes au sujet d’un programme ou d’une décision politique.

Munis de ces informations, les chercheurs et le partenaire peuvent alors évaluer la pertinence d’une évaluation aléatoire. Si le partenariat semble viable, ces informations permettront aux chercheurs d’ajuster leur stratégie de communication avec le partenaire, de proposer le cas échéant des formations ou des ressources, et de concevoir une évaluation aléatoire à la fois rigoureuse et réalisable.

Dernière modification : mars 2021.

Ces ressources sont le fruit d’un travail collaboratif. Si vous constatez un dysfonctionnement, ou si vous souhaitez suggérer l'ajout de nouveaux contenus, veuillez remplir ce formulaire.

Ce document a été traduit de l’anglais par Marion Beaujard.

Acknowledgments

Nous remercions Todd Hall, Emma Rackstraw et Sophie Shank pour leurs idées et leurs conseils précieux. Ce document a été relu et corrigé par Jacob Binder, et traduit de l’anglais par Marion Beaujard. Le présent travail a pu être réalisé grâce au soutien de la Fondation Alfred P. Sloan et d'Arnold Ventures. Toute erreur est de notre fait.

1.
Une évaluation randomisée — ou tout autre type d’évaluation d’impact — peut ne pas convenir aux besoins de certains partenaires potentiels. Pour aider ces partenaires à comprendre les différents types d’évaluation, les pages 12-13 de l'Introduction aux évaluations de J-PAL et le cours Qu'est-ce qu'une évaluation ? de J-PAL offrent des introductions accessibles aux différents types de questions de recherche et méthodes d’évaluation. De plus, Mary Kay Gugerty et Dean Karlan discutent de la pertinence des évaluations randomisées dans diverses situations dans Ten Reasons Not to Measure Impact—and What to Do Instead.
2.
Pour plus de ressources sur l'établissement de communications continues et le partage des résultats, consultez les ressources de J-PAL « Formaliser les partenariats de recherche et établir les rôles et attentes » et « Communiquer avec un partenaire au sujet des résultats ».
3.
La ressource de J-PAL « The risk of an underpowered randomized evaluation » explique pourquoi une évaluation sous-dimensionnée peut consommer beaucoup de temps et de ressources financières, tout en fournissant peu d'informations utiles.
4.
J-PAL a développé des ressources pour faciliter ces discussions, y compris des publications intitulées Pourquoi randomiser ?, Défis réels de la randomisation et leurs solutions, ainsi que Questions et préoccupations courantes concernant les évaluations randomisées.
5.
Le document de J-PAL North America, intitulé "Concevoir et itérer la stratégie de mise en œuvre", décrit les étapes et les questions à considérer une fois les partenariats de recherche formalisés. Il met notamment en lumière des moyens d'identifier des aspects spécifiques du programme du partenaire à prendre en compte lors de cette phase de conception, dont plusieurs peuvent être relevés lors de ces premières discussions.
6.
Cette ressource traite des qualités et des avantages d’identifier un soutien de haut niveau au sein de l’organisation partenaire. Elle détaille les rôles spécifiques, les conversations, et les tâches à accomplir pour faciliter un partenariat réussi, en particulier au sein des organisations gouvernementales.
7.
Cette ressource est un guide destiné aux partenaires, illustrant différentes formes potentielles de randomisation, y compris les conceptions par introduction progressive, rotationnelle et par incitation. Elle décrit les plans d’évaluation dans le cadre de programmes d’aide universelle et lorsque les ressources existent pour étendre le programme à l’ensemble de la zone d’étude, ainsi que dans les cas où l’accès au programme est garanti pour une partie de la population.
8.
J-PAL propose de nombreuses ressources de développement des compétences à l’intention des partenaires potentiels chargés de la mise en œuvre.
9.
Si vous travaillez également avec un partenaire existant, tel qu'un bureau de J-PAL ou d'IPA, impliquer ce bureau peut aider à comprendre le paysage local de la recherche et des projets. Le personnel local sera en mesure de fournir des conseils supplémentaires sur les autorisations, la logistique, les implications budgétaires, etc., qui éclaireront les perspectives de mise en œuvre du projet.
10.
Cette ressource offre une discussion nuancée sur l'éthique dans les évaluations randomisées.
11.
Cette ressource propose des suggestions pour des stratégies alternatives dans les cas où les partenaires expriment des préoccupations concernant la randomisation, notamment avec des populations spécifiques. Les chercheurs peuvent montrer qu'ils reconnaissent les défis éthiques ou pratiques en présentant des stratégies de randomisation alternatives
    Additional Resources
    1. “Evaluating Financial Products and Services in the US: A Toolkit for Running Randomized Controlled Trials.” 2015. Innovations for Poverty Action. 10 novembre 2015. https://www.poverty-action.org/publication/evaluating-financial-products-and-services-us-toolkit-running-randomized-controlled.
      La page 18 du document « Evaluating Financial Products and Services in the US: A Toolkit for Running Randomized Control Trials », publié par IPA, contient des questions supplémentaires pour déterminer s’il est pertinent d'effectuer une évaluation aléatoire dans un contexte donné.

    2. Glennerster, Rachel. 2017. “Chapter 5 - The Practicalities of Running Randomized Evaluations: Partnerships, Measurement, Ethics, and Transparency.” Dans Handbook of Economic Field Experiments, édité par Abhijit Vinayak Banerjee et Esther Duflo, 1:175–243. Handbook of Field Experiments. North-Holland.
      Pour plus d’informations sur la pertinence d’une évaluation aléatoire pour un programme ou un partenaire donnés, voir la section 1.2 du chapitre de Rachel Glennerster intitulé The Practicalities of Running Randomized Evaluations: Partnerships, Measurement, Ethics, and Transparency (publié au sein de l’ouvrage Handbook of Economic Field Experiments, paru chez Elsevier)

    3. What is the Risk of an Underpowered Randomized Evaluation?” J-PAL Amérique du Nord.
      Cette ressource explique pourquoi une évaluation aléatoire dont la puissance statistique est insuffisante risque de faire perdre beaucoup de temps et d’argent aux organismes pour ne fournir finalement que peu d’informations utiles.

    4. Gugerty, Mary Kay, and Dean Karlan. n.d. “Ten Reasons Not to Measure Impact—and What to Do Instead.” Stanford Social Innovation Review. Consulté le 2 octobre 2018.
      Dans leur ouvrage intitulé The Goldilocks Challenge, et dans un article de synthèse paru dans la Stanford Social Innovation Review, Mary Kay Gugerty et Dean Karlan analysent la pertinence des évaluations aléatoires dans différentes situations et, le cas échéant, les stratégies alternatives possibles.

    5. Glennerster, Rachel, and Shawn Powers. 2016. “Balancing Risk and Benefit: Ethical Tradeoffs in Running Randomized Evaluations.” The Oxford Handbook of Professional Economic Ethics, April. https://doi.org/10.1093/oxfordhb/9780199766635.013.017.
      Voir le chapitre de Rachel Glennerster et Shawn Powers intitulé Balancing Risk and Benefit: Ethical Tradeoffs in Running Randomized Evaluations pour une analyse détaillée des questions éthiques soulevées par les évaluations aléatoires.

    6. "Common Questions and Concerns about Randomized Evaluations." J-PAL Amérique du Nord.
      Avant d’avoir vos premières discussions avec un partenaire potentiel, il peut être utile de consulter ce document, ainsi que Why Randomize et Real-World Challenges to Randomization and Their Solutions (tous deux référencés plus bas), afin de se remettre les exemples en mémoire et de savoir expliquer le principe des ECR dans des termes non techniques. Ces ressources peuvent également être envoyées à un partenaire potentiel à l’issue de la première réunion ou du premier appel afin de clarifier ou d’approfondir les concepts liés aux ECR.

    7. Real-World Challenges to Randomization and Their Solutions.” J-PAL Amérique du Nord.
      Ce document contient des informations supplémentaires sur les solutions possibles aux défis pratiques posés par la randomisation, ainsi que des études de cas.

    8. Ressource vidéo de J-PAL : Why Randomize?

    9. "Right-Fit Evidence," IPA
      Cette ressource est utile si le partenaire potentiel souhaite en savoir plus sur le suivi et l’évaluation.

    10. Feasibility Checklist (Hoekman 2019) (Ressource interne de J-PAL)

    11. J-PAL’s guide to early-stage engagement with partners (Ressource interne de J-PAL)

    Allcott, Hunt. 2015. “Site Selection Bias in Program Evaluation.” The Quarterly Journal of Economics 130 (3): 1117-65. https://doi.org/10.1093/qje/qjv015.

    Carter, Samantha, Iqbal Dhaliwal, Julu Katticaran, Claudia Macías, and Claire Walsh. 2018. “Creating a Culture of Evidence Use: Lessons from J-PAL Government Partnerships in Latin America.” J-PAL LAC.