Notre recueil de ressources pratiques est destiné aux chercheurs et aux membres du personnel de recherche qui réalisent des évaluations aléatoires ou qui forment d’autres personnes à cette technique. Il s’adresse également à toute personne intéressée par les modalités de mise en œuvre de ce type d’évaluations.
En nous appuyant aussi bien sur les enseignements tirés de notre propre expérience que sur les conseils formulés par différents chercheurs et organismes de recherche, nous fournissons des conseils pratiques pour la conception et la mise en œuvre des évaluations aléatoires, ainsi que pour communiquer à leur sujet. Ces ressources sont le fruit d’un travail collaboratif. Les auteurs des ressources publiées ici sont systématiquement cités, et des liens vers leur travail original sont fournis chaque fois que c’est possible.
N'hésitez pas à nous contacter à l’adresse [email protected] ou à remplir ce formulaire si vous avez des questions ou des commentaires.
Introduction to Randomized Evaluations
Resources
A non-technical overview and step-by-step introduction for those who are new to randomized evaluations, as well as case studies and other teaching resources.
Before Starting a Project
Resources
Tips on successful field management and implementation partnerships for researchers who are new to fieldwork.
Project Planning
Resources
Highlights include: annotated checklist for designing an informed consent process, detailed advice on grant proposals and budgeting, and suggestions for proactive measures to help ensure ethical principles are followed in research design and implementation.
Research Design
Resources
Data Collection and Access
Resources
This section contains guidance specific to working with surveyors or survey companies, information about administrative data collection, and information applicable to all modes of data collection, such as on data security, data quality, and grant management.
Processing and Analysis
Resources
All the steps in a research project after the data was collected or assembled, from data cleaning to communicating results.
Communiquer avec un partenaire à propos des résultats
La réalisation d’une évaluation aléatoire implique une collaboration étroite et une communication régulière entre des acteurs multiples : chercheurs universitaires, personnel de recherche, partenaires...
Coding resources for randomized evaluations
This page compiles links to resources on software, user-written commands for randomized evaluations, coding in teams, and writing reproducible code. User-written commands listed below include common...
Ressources sur la programmation des évaluations aléatoires
Cette page rassemble des ressources sur les logiciels utiles pour la programmation, les commandes écrites par les utilisateurs pour les évaluations aléatoires, la programmation en équipe et la...
Conducting cost-effectiveness analysis (CEA)
This resource is intended for researchers who are interested in collecting cost data and conducting comparative cost-effectiveness analysis (CEA) for their evaluation. It provides an overview of CEA...
Réaliser une analyse coût-efficacité (ACE)
Cette ressource est destinée aux chercheurs qui souhaitent collecter des données sur les coûts et réaliser une analyse coût-efficacité (ACE) comparative dans le cadre de leur évaluation. Elle présente...
Randomization
Randomization for causal inference has a storied history. Controlled randomized experiments were invented by Charles Sanders Peirce and Joseph Jastrow in 1884. Jerzy Neyman introduced stratified...
Randomisation
La randomisation à des fins d’inférence causale a une longue et riche histoire. Les expérimentations contrôlées randomisées ont été inventées par Charles Sanders Peirce et Joseph Jastrow en 1884. En...
Introduction to randomized evaluations
This resource gives an overview and non-technical introduction to randomized evaluations. Randomized evaluations can be used to measure impact in policy research: to date, J-PAL affiliated researchers...