Rapport Évaluation Ministère Économie Finances France
-
Upload
ian-c-davies -
Category
Documents
-
view
132 -
download
1
Transcript of Rapport Évaluation Ministère Économie Finances France
Ian C Davies Conseil Inc.
1
Rapport Final
Revue du dispositif d’évaluation après achèvement des projets d’aide liée Réserve Pays Emergents (RPE) et Fonds d’Etudes et d’Aide au
Secteur Privé (FASEP) 2004-2012
19 mars 2015
Ian C Davies Conseil Inc.
2
Remerciements Nous tenons à remercier tous les collègues qui ont contribué leur temps, leurs connaissances et leurs perspectives afin de permettre à l’équipe de revue de mener à bien ses travaux. Le professionnalisme et l’ouverture d’esprit qui nous ont été manifestés sans exception méritent d’être soulignés. Merci. Ian C Davies, Jean Mathis et Albine Guitard 27 novembre 2014
Ian C Davies Conseil Inc.
3
Précisions liminaires L’UEAD Depuis la création de l’Unité d’évaluation des activités de développement (UEAD) à la Direction générale Trésor en 2004, celle-‐ci est chargée de piloter l’évaluation des activités de développement de la Direction ; l’UEAD s’attache notamment à évaluer les projets RPE et FASEP. La revue La revue a porté sur les évaluations réalisées entre 2004 et 2012, de façon telle que prévue par les termes de référence. Les recommandations sont donc basées sur le travail de l’UEAD réalisé durant cette période. L’UEAD a signalé des changements de pratiques intervenus après 2012 ; il est important de noter que ceux-‐ci se situent hors du cadre de la revue.
Ian C Davies Conseil Inc.
4
Table des matières 1. Introduction ................................................................................................................ 6 2. Contexte........................................................................................................................ 7 2.1 Aide liée ....................................................................................................................................... 7 2.2 Aide liée à la DG Trésor ....................................................................................................... 9 2.3 Unité d’Evaluation des Activités d’Aide au Développement............................. 9 2.4 Constats à l’origine de la revue ...................................................................................... 9 3. Objectif........................................................................................................................10 4. Méthodologie ............................................................................................................10 5. Évaluation de l’aide au développement à la DG Trésor.............................13 5.1 Cadre de politique de l’évaluation ..............................................................................13 5.2 Programmation ....................................................................................................................13 5.3 Gestion de la relation avec les consultants externes.........................................14 5.4 Assurance qualité ................................................................................................................14 5.5 Pilotage .....................................................................................................................................15 5.6 Communication, utilisation et capitalisation .......................................................16 6. Évaluation de l’aide liée ........................................................................................17 6.1 Précisions sur le concept d’effets .................................................................................17
6.1.1 Effet de levier .....................................................................................................................................17 6.1.2 Effet support.......................................................................................................................................19
6.2 Traitement des effets dans les évaluations...........................................................20 6.2.1 Effet de levier et effet support, remarque préliminaire ..................................................20 6.2.2 Effet de levier .....................................................................................................................................21 6.2.3 Effet support.......................................................................................................................................23
6.3 Les rapports d’évaluation de l’aide liée 2004-2012 ..........................................25 6.3.1 Protocole d’appréciation des rapports ...................................................................................25 6.3.2 Constatations......................................................................................................................................26 6.3.3 Évolution des rapports de 2004 à 2012 .................................................................................27 6.3.4 Termes de référence sur la période 2004-‐2012 .................................................................27
6.4 Appels à manifestation d’intérêt et termes de référence récents ................28 7. Études de cas ...............................................................................................................31 7.1 RPE : Evaluation de la fourniture d’équipements, de machines-outils et d’assistance technique au Vietnam ..................................................................................31
7.1.1 Sommaire..................................................................................................................................................31 7.1.2 Observations ...........................................................................................................................................32
7.2 L’évaluation RPE-FASEP : Reconstruction post crise.........................................34 7.2.1 Sommaire..................................................................................................................................................34 7.2.2 Observations ...........................................................................................................................................35
7.3 Évaluation d’une grappe de projets à volet MDP/MOC financés sur le FASEP-Études ...............................................................................................................................39
7.3.1 Sommaire..................................................................................................................................................39 7.3.2 Observations ...........................................................................................................................................40
8. Conclusions...................................................................................................................42 8.1 Approche évaluative...........................................................................................................42 8.2 Spécificité .................................................................................................................................43 8.3 Qualité........................................................................................................................................44
Ian C Davies Conseil Inc.
5
8.4 Encadrement ..........................................................................................................................44 8.5 Utilisation.................................................................................................................................45 9. Cadre de référence .....................................................................................................46 9.1 Fonction d’évaluation ........................................................................................................46
9.1.1 Organisation .......................................................................................................................................46 9.1.2 Systèmes...............................................................................................................................................48
9.2 Évaluation ................................................................................................................................49 9.2.1 Méthodologie ......................................................................................................................................49 9.2.2 Gouvernance .......................................................................................................................................49 9.2.3 Gestion...................................................................................................................................................50
10. Recommandations ...................................................................................................51 10.1 Recommandations pour la fonction d’évaluation ..............................................51
10.1.1 Politique de l’évaluation .............................................................................................................51 10.1.2 Programmation...............................................................................................................................52 10.1.3 Niveau de compétence.................................................................................................................52 10.1.4 Assurance qualité ..........................................................................................................................52 10.1.5 Participation ....................................................................................................................................53 10.1.6 Communication externe .............................................................................................................53 10.1.7 Approche focalisée sur l’utilisation .......................................................................................53 10.1.8 Comité consultatif externe.........................................................................................................54
10.2 Recommandations pour l’évaluation ........................................................................54 10.2.1 Évaluabilité.......................................................................................................................................54 10.2.2 Termes de référence.....................................................................................................................55 10.2.3 Comité de pilotage.........................................................................................................................56 10.2.4 Grille d’appréciation.....................................................................................................................56
Annexe 1 - Grille d'appréciation des rapports d'évaluation.............................57 Annexe 2 – Liste des entretiens..................................................................................58 Liste des tableaux et encadrés Tableau 1 : Montants d’aide liée par pays membres de l’OCDE, moyenne sur la période 2008-2012……………………………………………………………………………………………p. 9 Tableau 2 : Pourcentages d’aide liée par pays membres de l’OCDE, moyenne sur la période 2008-2012……………………………………………………………………………………………p. 9 Encadré 1 : Les fonctions de « groupe de référence » et de « comité de pilotage » ………………………………………………………………………………………………………………………..p.16 Encadré 2 : Précisions sur la notion d’utilisation relative à l’évaluation…………..p.17 Encadré 3 : Effet de levier direct = part française……………………………………………p.18 Encadré 4 : La chaîne d’évaluation des politiques…………………………………………..p.20 Encadré 5 : Précisions sur l’évaluation…………………………………………………………..p.43
Ian C Davies Conseil Inc.
6
1. Introduction
Réalisé à l’intention de la direction générale du Trésor (DG Trésor) et plus spécifiquement de l’Unité d’Evaluation des Activités d’Aide au Développement (UEAD), ce rapport présente les résultats de la revue des évaluations de projets d’aide liée Réserve Pays Emergents (RPE) et Fonds d’Etudes et d’Aides au Secteur Privé (FASEP) et réalisées sur la période 2004-‐2012. Le rapport commence par décrire brièvement le contexte, l’objectif ainsi que la méthodologie de la revue, au cours des chapitres 1 à 4. Le chapitre 5, présente et analyse l’organisation et les systèmes d’évaluation, notamment les systèmes de programmation, de pilotage, d’assurance qualité de l’UEAD, c’est-‐à-‐dire la fonction d’évaluation au sens organisationnel du terme. Le chapitre 6 s’intéresse à la façon dont sont conceptualisés et appréhendés les effets de l’aide liée, et examine la qualité des rapports d’évaluation concernant l’aide liée produits sur la période 2004-‐2012. Le chapitre 7 du rapport présente les études de cas détaillées de trois évaluations de projets RPE et FASEP. Le chapitre 8 expose les conclusions de la revue et le chapitre 9 le cadre de référence pour les recommandations. Les recommandations présentées dans le chapitre 10 feront l’objet d’une séance de travail réunissant l’équipe de revue, l’UEAD ainsi que d’autres unités de la DG Trésor en vue de leur opérationnalisation. Un rapport de synthèse à l’intention de publics externes à la DG Trésor sera préparé sur base du présent document. Une rencontre de restitution à la DG Trésor est aussi prévue.
Ian C Davies Conseil Inc.
7
2. Contexte
2.1 Aide liée
Selon la définition de l’OCDE, l’aide liée désigne les dons ou prêts du secteur public pour lesquels les marchés sont limités à des entreprises du pays donneur ou d’un petit groupe de pays. L’OCDE considère que l’aide liée empêche souvent les pays bénéficiaires d’utiliser de façon optimale les fonds alloués pour l’achat de services, de biens ou de travaux. Depuis sa création en 1961, le Comité d’aide au développement de l’OCDE (CAD) s’emploie à améliorer l’efficacité des efforts déployés par ses membres en matière d’aide. Sur la question de l’aide liée, les travaux du CAD ont, entre autre, abouti à la publication en 2008 du rapport « Recommandation du CAD sur le déliement de l’aide » 1. Les objectifs de cette recommandation sont les suivants : -‐ délier dans la mesure du possible toute l’Aide Publique au Développement (APD) aux pays les moins avancés, -‐ promouvoir et maintenir des apports d’APD suffisants, en particulier aux pays les moins avancés, -‐ faire en sorte que l’effort de déliement de l’aide soit équilibré entre les membres du CAD. Les graphiques suivants, élaborés à partir des statistiques de l’OCDE, permettent de noter que parmi les dix pays qui conservent les plus gros volumes d’aide liée sur la période 2008-‐2012, la France possède un volume d’aide liée de près de 485 millions d’euros, ce qui est en dessous de la moyenne des pays membres de l’OCDE.
1 http://www.oecd.org/fr/cad/41708406.pdf
Ian C Davies Conseil Inc.
8
Tableau 1 : Montants d’aide liée par pays membres de l’OCDE, moyenne sur la période 2008-2012
Les montants d’aide liée en pourcentage du volume total d’aide publique au développement par pays, sur la période 2008-‐2012, montrent que la France est en deçà de la moyenne des pays membres de l’OCDE quant à la part liée de son aide. Tableau 2 : Pourcentages d’aide liée par pays membres de l’OCDE, moyenne sur la période 2008-2012
8213.77
810.352
729.604
571.67
484.888
441.354
423.14
391.228
215.164
189.594
162.826
0
0 1000 2000 3000 4000 5000 6000 7000 8000 9000
Etats-Unis Japon Corée
Moyenne OCDE France
Pays-Bas Espagne
Italie Allemagne
Portugal Autriche
Royaume Uni
En millions USD
Montants d'aide liée par pays, en millions USD Moyenne sur la période 2008-2012
77%
54% 46%
38,6% 30%
17% 16% 10% 7,1% 06% 3,9%
0% 0%
10% 20% 30% 40% 50% 60% 70% 80% 90%
Pourcentage d'aide liée dans le volume d'aide global par pays Moyenne sur la période 2008-2012
Ian C Davies Conseil Inc.
9
2.2 Aide liée à la DG Trésor
L’ensemble de l’aide liée française est administrée par le biais de deux instruments. La Réserve Pays Émergents (RPE) est un instrument de prêt intergouvernemental avec garantie souveraine, qui permet de financer des projets répondant au double objectif d’appui au développement du pays bénéficiaire et de promotion des entreprises françaises. Conformément à la définition de la statistique de l’APD de l’OCDE, les financements sur la RPE sont des prêts qui comportent un élément don minimum de 35 %. Sur la période considérée, une dizaine de projets financés sur la RPE d’un montant moyen de 12 millions d’euros ont été approuvés chaque année. Le Fonds d’Études et d’Aide au Secteur Privé (FASEP) est un instrument de don qui finance des études préparatoires en amont de projets d’investissement à finalité économique ou financière dans les pays en développement ou en transition. Le FASEP vise également la promotion des entreprises françaises en les favorisant lors des appels d’offres qui découlent des études. Une trentaine de projets financés par le FASEP ont été approuvés annuellement sur la période pour un montant moyen de 500 000 euros. 2.3 Unité d’Evaluation des Activités d’Aide au Développement
L’UEAD, dans sa forme actuelle, a été constituée en 2004. Son mandat est, tel que stipulé dans l’arrêté du 21 avril 2009 portant organisation de la DG Trésor, d’évaluer « les activités de développement pilotées ou mises en œuvre par la direction générale. Elle contribue à l'évaluation de l'ensemble de l'aide publique française au développement aux côtés des autres unités administratives d'évaluation (en particulier du ministère des affaires étrangères et européennes et de l'Agence française de développement) ainsi qu'à l'harmonisation et à la mise au point de bonnes pratiques (…) ». 2.4 Constats à l’origine de la revue
En 2013, l’UEAD a pris acte qu’outre le faible nombre d’évaluations de projets RPE-‐FASEP réalisées, un certain nombre d’insuffisances caractérisent ces travaux non seulement en termes de programmation et de qualité, mais aussi d’utilité et d’utilisation. L’UEAD a de ce fait décidé de passer en revue les évaluations des projets RPE et FASEP réalisées depuis la création de l’UEAD jusqu’en 2012 afin d’en tirer des enseignements utiles pour l’amélioration de la pratique et de la mise en œuvre des évaluations.
Ian C Davies Conseil Inc.
10
3. Objectif
L’objectif de la revue est la proposition d’actions concrètes et réalisables, pour améliorer l’évaluation par l’UEAD des projets RPE et FASEP. Ces recommandations devraient aussi permettre un renforcement de l’évaluation dans son ensemble à l’UEAD. La revue a comme objectifs spécifiques la formulation de recommandations pour pallier aux insuffisances relevées par l’UEAD particulièrement en matière de programmation, de qualité et d’utilité ainsi que d’utilisation des évaluations des projets RPE et FASEP. Il s’agit également, tout en restant dans le cadre de la revue, d’apporter un retour d’information à FININTER 2, le service en charge de la mise en œuvre des instruments RPE et FASEP, afin que ses agents puissent optimiser leur usage de l’évaluation. De façon générale la revue vise à apporter une valeur ajoutée en identifiant et en intégrant dans ses recommandations, dans la mesure du possible et de leur pertinence, des développements récents en matière d’évaluation. 4. Méthodologie
La revue répond d’abord à trois questions clés : Dans quelle mesure l’organisation et les systèmes d’évaluation de l’UEAD
sont-‐ils adéquats pour l’évaluation des projets d’aide liée ? Dans quelle mesure les processus 2 d’évaluation de l’aide liée sont-‐ils
appropriés pour l’évaluation des projets d’aide liée ? Quelle est la qualité des rapports d’évaluation des projets d’aide liée ?
2 Les processus incluent les méthodologies d’évaluation.
Ian C Davies Conseil Inc.
11
Une des questions clés de départ de la revue était la suivante « Comment s’organise et se fait l’évaluation de l’aide liée dans d’autres pays ? ». Après différentes démarches3, il est apparu non seulement difficile d’entrer en contact avec les personnes responsables de l’aide liée dans les pays qui en font le plus, mais de surcroit, il était presque impossible de savoir si l’évaluation de ce type d’aide était faite. L’équipe de la revue a donc formé l’idée qu’il ne se fait probablement pas ou peu d’évaluation des projets financés au moyen d’instruments d’aide liée dans les pays auxquels elle s’est intéressée -‐ mentionnés en partie 2.1. Voulant utiliser de façon optimale les ressources de la revue, et après discussion avec l’UEAD et le comité de pilotage, la décision a été prise de réaffecter les ressources dédiées à cette composante, ainsi remplacée par : la revue de pratiques d’évaluation par l’UEAD plus récentes, et la conduite d’un atelier de travail pour accompagner l’UEAD dans l’opérationnalisation des recommandations de la revue. Pour formuler l’analyse qui répond aux questions clés de la revue, un ensemble de données qualitatives et quantitatives ont été recueillies principalement au moyen :
• d’interviews semi-‐structurées, entre autre avec le personnel de l’UEAD, de FININTER 2, de la DG Trésor, de l’Agence Française de Développement (AFD) et de diverses parties prenantes aux évaluations RPE-‐FASEP ;
• d’interviews structurées des équipes d’évaluation pour les trois évaluations qui ont fait l’objet d’études de cas ;
• de revues documentaires de documents se rapportant à l’évaluation à la DG Trésor, à l’AFD, à l’aide liée de façon générale, à l’approche du CAD en matière d’évaluation du développement ;
• d’analyses documentaires des rapports, des termes de référence et des notes de structuration des évaluations FASEP et RPE menées entre 2004 et 2012 ;
• pour les trois évaluations qui ont fait l’objet d’études de cas, revue d’éléments des dossiers d’évaluation des consultants et revue d’éléments additionnels fournis par l’UEAD à partir de ses « dossiers de pilotage ».
La revue porte une attention particulière au traitement par les évaluations des questions relatives à l’appui au développement des pays récipiendaires soit « l’effet support », et celles relatives à l’appui au développement des entreprises françaises soit « l’effet de levier ». 3 Lettre du secrétariat du Réseau sur l’évaluation du développement du CAD à l’intention des unités d’évaluation du développement de chaque pays membre du CAD. Lettres, échanges de correspondance, entretiens : membres de l’Association Africaine d’Évaluation ; réseau d’évaluation interculturel de l’Association Américaine de l’Évaluation ; unités d’évaluation du développement de la Corée, de l’Autriche, de l’Espagne, du Canada, des Pays-‐Bas ; Banque Européenne d’Investissement, Banque mondiale, Banque Européenne pour la Reconstruction et le Développement, Banque Asiatique de Développement, Banque Africaine de Développement ; « State Department », Etats-‐Unis.
Ian C Davies Conseil Inc.
12
De plus, la revue tient compte des « insuffisances »4 relevées par l’UEAD en ce qui concerne les évaluations FASEP et RPE, mais a abordé son examen, son analyse et son appréciation sans préjugés et a suivi une méthodologie qui incorpore la prise en compte des contextes dans lesquels ces évaluations ont eu lieu. La revue cherche à apprécier autant les aspects positifs qui soutiennent les évaluations que les contraintes auxquelles elles font face. Les aspects de programmation, de la qualité et de l’utilité ainsi que de l’utilisation des évaluations sont au cœur des questions qu’aborde la revue dans ses études plus approfondies de trois évaluations choisies comme études de cas.
4 Voir sur ce point les termes de référence de la revue.
Ian C Davies Conseil Inc.
13
5. Évaluation de l’aide au développement à la DG Trésor
5.1 Cadre de politique de l’évaluation
Le document intitulé « Politique de l’évaluation des actions d’aide au développement : Guide Méthodologique », de la Direction Générale du Trésor, fait office de politique et de guide méthodologique pour l’UEAD. L’aspect de politique proprement dit, c’est-‐à-‐dire relatif à la raison d’être de la fonction de l’évaluation, son orientation fondamentale et ses priorités, n’est que peu développé et se résume essentiellement à un bref historique de son évolution et une description sommaire de ses activités. Le Guide consiste en grande partie en une description des procédures générales pour l’évaluation menée par l’UEAD, et principalement de celles relatives à l’organisation de l’évaluation. Le volet méthodologique proprement dit est limité et consiste en un résumé des principes et des critères d’évaluation du Comité d’Aide au Développement (CAD) de l’OCDE, assez peu mis en relation avec le contexte propre de l’UEAD. Dans sa forme actuelle le document ne traite pas adéquatement ni du contenu de politique de l’évaluation ni du contenu relatif aux approches méthodologiques privilégiés par l’UEAD dans le cadre de son mandat et de son rôle au sein de la DG Trésor. 5.2 Programmation
L’UEAD procède de façon systématique et consultative au développement de la programmation de ses évaluations sur une base triennale glissante. Le document de référence est la note interne portant sur le programme détaillé d’évaluation des activités de développement de la DG Trésor. La note interne la plus récente, portant sur les activités 2012-‐2014, dresse le bilan des évaluations réalisées en 2011-‐2012 et propose la programmation pour 2013-‐2014. Contrairement aux notes du même type qui précèdent cette dernière et qui s’inscrivent dans la période 2004-‐2012 que couvre cette revue, la note la plus récente rend plus explicites les critères qui ont servi à structurer et à justifier le choix des évaluations proposées.
Ian C Davies Conseil Inc.
14
Ce type d’approche programmatique est un facteur de renforcement de la performance de l’UEAD et ainsi de la valeur des évaluations. Le cadre de référence pour la programmation est une composante fondamentale d’une politique de l’évaluation. Toutefois la revue note que dans son état actuel, le document de politique de la DG Trésor ne traite pas spécifiquement de la programmation et qu’il n’existe pas non plus de document explicatif relatif aux procédures ou processus programmatiques des évaluations de la DG Trésor. Il s’en suit que la revue n’a pas trouvé de critères de sélection des projets évalués. De plus, la question de l’évaluabilité généralement prise en compte à l’étape de la programmation est aussi absente du document de politique de l’évaluation de la DG Trésor ; spécifiquement, l’UEAD n’a pas défini de façon explicite ce qui est attendu de l’appréciation de l’évaluabilité. 5.3 Gestion de la relation avec les consultants externes
La gestion de la relation avec les consultants externes qui ont mené les évaluations examinées par la revue, apparaît correcte et sans difficulté majeure tant sur les plans contractuel, que financier et relationnel. Ceci dit, le rôle de l’UEAD semble avoir été en grande partie administratif plutôt que focalisé sur la qualité et la valeur ajoutée de l’évaluation. L’aspect de qualité semble avoir été traité à travers le comité de pilotage, quant à la valeur ajoutée de l’évaluation celle-‐ci reste difficile à cerner vu le peu de suivi et de capitalisation systématique apparente. Certains aspects clés de la gestion contractuelle qui est de la responsabilité de l’UEAD semblent être pris en charge par le comité de pilotage comme par exemple l’appréciation du travail des consultants ou la validation des « livrables » contractuels tels que les rapports. 5.4 Assurance qualité
L’encadrement de l’évaluation doit reposer entre autre sur le contrôle de qualité par l’évaluateur et par l’assurance de la qualité par le commanditaire, ces deux processus devant à leur tour reposer sur des standards communs et des systèmes explicites et complémentaires. Dans un cas comme dans l’autre les deux composantes de contrôle et d’assurance qualité doivent faire appel à des niveaux élevés de connaissances et d’expertise de la théorie et de la pratique de l’évaluation.
Ian C Davies Conseil Inc.
15
À la lumière de ses travaux la revue estime que ces processus ainsi que les conditions nécessaires à leur mise en œuvre n’existent pas de manière effective et adéquate à l’heure actuelle dans l’organisation et les systèmes d’évaluation de la DG Trésor. 5.5 Pilotage
Le pilotage de l’évaluation est censé revenir au Comité de pilotage toutefois le rôle et les responsabilités de ce dernier sont confus du fait qu’en pratique il semble cumuler de manière indistincte des fonctions de gestion : supervision, termes de référence, choix des consultants, suivi et qualité de l’évaluation, validation des livrables contractuels ; des fonctions d’assurance qualité au regard de la méthodologie ; des fonctions de participation de parties prenantes ; ainsi que des fonctions de groupe de référence, et des fonctions de pilotage : orientation de l’évaluation. Encadré 1 : Les fonctions de « groupe de référence » et de « comité de pilotage » Généralement, un groupe de référence, ou groupe technique, sert à assurer que le traitement par l’évaluation de contenu spécialisé, soit technique ou sectoriel, est en cohérence avec l’état des connaissances et des pratiques de la discipline ou du secteur en question. Un groupe de référence peut par exemple proposer ou valider le choix de spécialistes à intégrer à l’équipe d’évaluation, à proposer des sources de données spécialisées, à proposer des questions spécifiques au contenu spécialisé, etc. Le groupe de référence s’apparente plus à un comité aviseur technique. Un comité de pilotage exerce un mandat de gouvernance de l’ensemble de l’évaluation et porte normalement son attention sur deux aspects : l’orientation de l’évaluation afin d’en assurer son utilisation et son indépendance, et la protection de l’autonomie de l’évaluateur dans l’exercice de son jugement évaluatif. De ce fait la qualité du pilotage apparaît variable et ces fonctions qui devraient être assumées pleinement par l’UEAD ne le sont pas. En particulier la responsabilité spécifique et primordiale d’un pilotage efficace, notamment la protection de l’indépendance de l’évaluation et de l’autonomie du jugement évaluatif ne semble pas primer dans les activités du comité de pilotage. Cette réalité crée un disfonctionnement qui se manifeste parfois lorsque des évaluations conduites de façon discutable ne sont pas redressées en temps opportun et que des livrables de qualité douteuse sont entérinés. De façon générale elle met à risque la crédibilité de l’évaluation, sa qualité et sa valeur ajoutée.
Ian C Davies Conseil Inc.
16
5.6 Communication, utilisation et capitalisation
La communication des résultats de l’évaluation des projets RPE et FASEP se fait par la publication des rapports de synthèse sur le site web de la DG Trésor. Les rapports finaux pour les évaluations des projets d’aide liée ne sont pas publiés dans leur intégralité compte-‐tenu d’un objectif de protection d’éventuels intérêts commerciaux. Sur la période concernée par la revue, la question de l’utilisation des évaluations ne fait pas l’objet de considérations systématiques ex-‐ante, ce qui présente le risque que leur utilité soit aléatoire. Encadré 2 :Précisions sur la notion d’utilisation relative à l’évaluation Il ne faut pas confondre : -‐ utilisation dans le sens d’une approche évaluative focalisée sur l’utilisation, du type « Utilisation Focused Evaluation » de M.Q. Patton5, -‐ et la mise en place d’un système de suivi des recommandations. La revue note que la DG Trésor annonce, en 2014, la formalisation d’un système de suivi des recommandations des évaluations. La revue n’a pas trouvé de système établi afin de soutenir la capitalisation systématique des enseignements tirés des évaluations. Sur ce dernier point, il est important de noter que certains prérequis fondamentaux d’un système de gestion des connaissances permettant de capitaliser sur les travaux produits ne semblent pas tout à fait en place ; en effet, l’effort de recherche nécessaire dont l’UEAD fait état pour transmettre les rapports et documents relatifs aux consultants sur la période concernée par la revue indique que le système d’archivage des rapports d’évaluation et de la documentation pourrait être renforcé.
5 http://www.sagepub.com/books/Book229324
Ian C Davies Conseil Inc.
17
6. Évaluation de l’aide liée
6.1 Précisions sur le concept d’effets
6.1.1 Effet de levier L’effet de levier mesure l’ensemble des effets d’un projet d’aide internationale sur l’économie française (production, emploi, exportation,…), que ces effets soient directs, c’est-‐à-‐dire liés au contrat d’aide et bénéficiant aux entreprises contractantes et à leurs sous-‐traitants, ou indirects, c’est-‐à-‐dire induits par les effets directs au bénéfice d’entreprises françaises en dehors du contrat. Effet de levier direct : part française du contrat ou directement liée au contrat L’effet direct (à ce stade aucun levier n’a encore joué) est celui lié à la réalisation du projet par l’entreprise bénéficiaire du contrat. Il est défini comme la part française de l’opération, c’est à dire la part non importée. Si la définition paraît simple, sa mesure est complexe, car, à la part française de la production de l’entreprise bénéficiaire, il convient en toute rigueur d’ajouter la part française d’un ensemble de consommations intermédiaires. La part française de la production de l’entreprise bénéficiaire est égale à sa production dont sont retirées les consommations intermédiaires importées, c’est-‐à-‐dire, comptablement à la valeur ajoutée (VA) de l’entreprise additionnées de ses consommations intermédiaires (CI) non importées. La difficulté vient de ce que les CI non importées, c’est-‐à-‐dire la production des sous-‐traitants, recèlent à leur tour une part française et des CI importées, et ainsi de suite. Le graphique suivant illustre cet enchaînement. Encadré 3 : Effet de levier direct = part française
Ian C Davies Conseil Inc.
18
Il convient de noter que la nationalité de l’entreprise n’intervient pas. La production est française si elle est produite en France. Effet de levier indirect : contrats ultérieurs La réalisation du contrat FASEP ou RPE peut donner lieu à d’autres contrats entre une entité du pays bénéficiaire et des entreprises françaises, en particulier celles ayant bénéficié du contrat initial. Il peut s’agir de contrats directement liés au contrat initial (maintenance, formation, etc.) ou de contrats obtenus à la suite de la réputation acquise grâce au premier contrat. Dans ce dernier cas, on peut faire la distinction entre un effet de levier indirect et un effet vitrine. L’effet de levier indirect est mesuré par des contrats ultérieurs effectivement obtenus ou probables tandis que l’effet vitrine consiste en une réputation dont on espère des retombées sous la forme de contrats futurs. Effet de levier indirect : effets macro-économiques La production française (c’est-‐à-‐dire sur le territoire français) entraîne, au-‐delà des effets précédents, des effets globaux sur le PIB par les revenus qu’elle distribue et qui sont ensuite dépensés. Cet effet est difficile à mesurer (bien que certaines agences de coopération le fassent d’autant qu’il s’applique tant au contrat initial qu’aux contrats ultérieurs.) Effet de levier mesurable : définition retenue Il convient de retenir une définition opérationnelle, c’est-‐à-‐dire susceptible d’être mise en œuvre compte tenu des moyens disponibles. L’effet de levier mesurable est constitué de : -‐ l’effet de levier direct arrêté au niveau 1 de sous-‐traitance ; -‐ les contrats ultérieurs acquis ou probables. Sont donc exclus de l’effet de levier mesurable : -‐ l’effet de levier direct au-‐delà du niveau 1 de sous-‐traitance ; -‐ les contrats ultérieurs incertains ; -‐ les effets macro-‐économiques.
Ian C Davies Conseil Inc.
19
6.1.2 Effet support L’effet support d’un projet est constitué des résultats pour le pays bénéficiaire. Ces résultats, par opposition au processus qui les produit, sont généralement catégorisés selon une « chaine de résultats » en :
• biens et services produits (« outputs » ou extrants) par le projet ; • effets (« outcomes »), sur la population visée directement par le projet ; • impacts qui, selon la définition de l’OCDE-‐CAD sont des effets à long terme, positifs et négatifs, primaires et secondaires, directs ou indirects, attendus ou non.
L’objectif principal d’une intervention est généralement défini en termes de résultats pour la population ciblée par l’intervention. Selon la politique de l’évaluation de l’UEAD l’efficacité d’une intervention est une mesure selon laquelle les objectifs de l’intervention ont été atteints ou sont en mesure de l’être. Le terme efficacité peut aussi connoter l’appréciation d’ensemble du mérite ou de la valeur d’une intervention. Encadré 4 : La chaîne d’évaluation des politiques6
6 Source : Politique de l’évaluation des actions d’aide au développement. Guide méthodologique. DG Trésor -‐ 2010.
Ian C Davies Conseil Inc.
20
6.2 Traitement des effets dans les évaluations
6.2.1 Effet de levier et effet support, remarque préliminaire Les effets de levier et support sont différents selon qu’il s’agit des FASEP ou des RPE. Le FASEP Etudes est engagé avec l’espoir qu’il soit suivi par un projet industriel « en dur », concret. Les effets du FASEP sont beaucoup plus limités si ce projet n’est pas réalisé que s’il l’est. En première approximation, on pourrait considérer que les effets de levier et support significatifs du FASEP Etudes sont ceux du projet sous-‐jacent. En fait, les choses sont un peu plus compliquées dans la mesure où le FASEP Etudes, même lorsqu’il n’est pas suivi d’un projet industriel, recèle, en tant que projet d’ingénierie des effets de levier et support, certes limités, mais bien réels :
• effet de levier : le FASEP Etudes fait connaître les bureaux français d’ingénierie auprès des partenaires, et peut donc produire un effet vitrine susceptible d’engendrer des commandes ultérieures pour ce type de prestation ;
• effet support : le FASEP Etude, s’il associe des partenaires au développement, peut accroître les capacités de ceux-‐ci dans le domaine de l’ingénierie.
Il n’en reste pas moins que ces effets sont très limités relativement à ceux que permettent d’obtenir la réalisation du projet sous-‐jacent. Les autres types de FASEP, en particulier le FASEP Formation professionnelle et le FASEP Innovation verte ne sont pas liés directement à des projets sous-‐jacents identifiés. Ils sont cependant mis en œuvre dans la perspective de faire connaître le savoir-‐faire des entreprises françaises et de faciliter l’obtention de contrats de projets industriels dans l’avenir. Enfin, le FASEP a été parfois réorienté pour financer l’assistance technique à la mise en œuvre d’un projet industriel.
Ian C Davies Conseil Inc.
21
6.2.2 Effet de levier L’effet de levier dans les termes de référence Il est possible de confronter ce qui est demandé aux évaluateurs dans les termes de référence à ce qu’ils ont pu produire. La présentation la plus complète de l’effet de levier se trouve dans l’annexe des termes de référence intitulée « Structure indicative du rapport d’évaluation » (cette « structure indicative », strictement identique pour toutes les évaluations sauf trois sur la période 2004-‐2012, a été supprimée à partir de 2011) -‐ dans la section « 5.2 Impact du projet pour l’économie française » qui se décompose en 3 paragraphes demandant aux consultants retenus d’apprécier :
• Les effets directs et à moyen terme sur le commerce extérieur. La demande concerne l’effet de levier du financement afférent au projet (non défini), la stratégie d’implantation des entreprises, l’acquisition ou le maintien de positions commerciales, l’évaluation chiffrée (au moins estimative) des exportations françaises générées par le projet ainsi que des potentialités, etc. • L’effet vitrine du projet. Il s’agit d’apprécier notamment l’image de marque des entreprises françaises et de la France créée par le projet, la publicité donnée au projet, la valorisation de l’action d’aide française au développement. • La réplicabilité du projet. Il est demandé d’apprécier les conditions de réussite d’un projet analogue en général et dans la zone géographique concernée, et l’insertion du projet dans une stratégie française plus globale d’intervention en termes de secteur, de pays ou de zone.
L’effet de levier dans les évaluations Ce qui suit vaut essentiellement pour les RPE ; un commentaire spécifique aux FASEP est proposé en fin de paragraphe. L’effet de levier n’est pratiquement jamais défini par les évaluateurs. En pratique, il correspond à ce qui a été défini comme « l’effet de levier mesurable » -‐ section 6.1.1 du présent rapport -‐ c’est-‐à-‐dire au chiffre d’affaires des entreprises parties prenantes au contrat et de leurs sous-‐traitants auxquels viennent s’adjoindre d’autres entreprises françaises parties prenantes à des contrats ultérieurs en cours, ou à des contrats ultérieurs acquis ou probables. Sauf dans un cas, l’effet de levier n’est jamais chiffré. Si la « part française » du contrat initial est connue à la signature du contrat, elle n’est jamais évoquée en ce qui concerne la suite de l’effet de levier, c’est-‐à-‐dire les contrats susceptibles d’être signés à la suite de contrat FASEP ou RPE initial.
Ian C Davies Conseil Inc.
22
La vérification ex-‐post de la part française telle qu'établie ex-‐ante n'est pas effectuée par les évaluateurs, mais par le Contrôle général économique et financier (CEGEFI), en général après l'achèvement de l'évaluation. Les données utilisées pour apprécier l’effet de levier sont globalement générales et recueillies à la suite d’entretiens avec les entreprises bénéficiaires du contrat initial et avec les services économiques ainsi que par une connaissance du milieu entrepreneurial, tant français que local, dans le pays. Les effets sur l’emploi en France et les exportations françaises ne sont mentionnés que dans une minorité d’évaluations généralement à la suite d’entretiens avec les bénéficiaires du contrat initial, et ne font pas appel à des données quantitatives. Il n’y pas d’estimation de l’emploi et des exportations liés au reste de l’effet de levier. Les effets de levier des FASEP Etudes ont été évalués en termes de retombées à la fois en ingénierie, principalement pour l’entreprise ayant réalisée l’étude, et en projets sous-‐jacents. De ce dernier point de vue, les évaluations se sont, bien sûr, limitées à constater la réalisation ou la non-‐réalisation du projet sous-‐jacent, ou à évaluer ses perspectives de réalisation, sans aller jusqu’à estimer les effets de levier du projet sous-‐jacent, les perspectives de projets induits par le projet sous-‐jacent étant beaucoup trop incertaines. Les effets de levier des FASEP Formation professionnelle ont été évalués du point de vue de leur retombées en termes d’objectifs sous-‐jacents (il est préférable de parler d’objectifs plutôt que de projets puisque, dans ce cas, il n’existe généralement pas de projets sous-‐jacents bien spécifiés). Il en est de même des FASEP « Assistance technique ». Malgré ces déficiences de l’estimation de l’effet de levier des FASEP et des RPE, il serait possible d’apprécier cet effet en adoptant une vision agrégée de l’ensemble des projets plutôt que de se limiter à l’évaluation projet par projet. Celle-‐ci aurait également pour avantage de permettre de poursuivre vers une estimation macro-‐économique, telle que celle de la Coopération suisse, dont les estimations montrent que son absence omet une part importante de l’effet pour l’ensemble de l’économie7.
7 La méthodologie de la Coopération suisse a pour objet d’estimer les effets sur le PIB de la Suisse de l’ensemble des dépenses d’aide publique au développement (APD). La première étape de l’estimation consiste à calculer l’effet primaire sur la demande globale, qui inclut l’ensemble des effets directs de l’APD sur la demande de biens et services suisses, c’est-‐à-‐dire hors effets macro-‐économiques induits. Ces effets directs sont estimés de façon relativement large puisqu’ils incluent, par exemple, les achats de biens et services suisses consécutifs à l’aide multilatérale suisse. L’effet primaire sur la demande globale est de 0,73 franc suisse pour 1 franc suisse d’APD. Les effets sur le PIB et sur l’emploi sont ensuite calculés par un modèle macro-‐économique qui vient ajouter à l’effet primaire des effets induits. Compte tenu des incertitudes qui pèsent sur les hypothèses nécessaires aux calculs, il est proposé une valeur minimale et une valeur maximale des estimations, qui, sont respectivement 1,29 et 1,51 francs suisses de PIB pour 1 franc suisse d’APD. La comparaison entre l’effet primaire sur la demande globale et l’effet sur le PIB, tous effets induits pris en compte, met bien en évidence les défauts d’une approche non macro-‐économique, quels que soient les effets indirects qui aient pu être pris en compte au préalable.
Ian C Davies Conseil Inc.
23
Cette vision globale permettrait également de mettre à profit les travaux de l’Observatoire du fabriqué en France8 qui, au seul niveau agrégé de secteurs, permet un calcul de la part française, au-‐delà du calcul de la DGE qui, quelle que soit sa qualité, ne vaut que pour la composante initiale des contrats FASEP et RPE.
6.2.3 Effet support L’effet support dans les termes de référence Il est possible, comme pour l’effet de levier, de confronter ce qui est demandé aux évaluateurs dans les termes de référence à ce qu’ils ont pu produire. La présentation la plus complète de l’effet support était jusqu’en 2011 obtenue dans l’annexe « Structure indicative des rapports d’évaluation » des termes de référence – qui était identique et présente pour toutes les évaluations sous revue sauf trois -‐ et se trouve à la section « 5.1 Impact du projet pour le pays récipiendaire » qui se décompose en 4 paragraphes :
-‐ Les impacts économiques : la demande est encore plus ambitieuse que ce qui est attendu des évaluateurs concernant l’effet de levier puisqu’il leur est demandé de mesurer le taux interne de rentabilité économique, l’impact sur le budget de l’Etat ou des collectivités locales, et les mesures d’accompagnement prises par l’Etat. -‐ Les impacts techniques : c.à.d. l’adéquation du projet aux besoins technologiques du bénéficiaire, les échelles de comparaison avec des équipements ou interventions similaires, les transferts de technologie, etc. -‐ Les impacts institutionnels : c.à.d. notamment l’insertion du projet dans la programmation des investissements du pays et dans le développement du secteur concerné, l’aptitude du pays d’accueil à la gestion du projet et éventuelles propositions d’amélioration. -‐ Les impacts sociaux et environnementaux : c.à.d. les effets du projet sur le développement social du pays et sa contribution à la lutte contre la pauvreté et les inégalités sociales, les effets sur l’environnement.
8 La méthodologie de l’Observatoire du fabriqué en France cherche à estimer, dans la production d’un bien ou service, la part qui revient aux entreprises françaises après épuisement de tous les effets de sous-‐traitance. A cette fin, un tableau des entrées intermédiaires est utilisé qui permet de calculer (théoriquement à l’infini) la totalité des productions de consommations intermédiaires qui ont contribué à la production concernée. Ainsi, pour une voiture fabriquée en France valant 10 000 euros, 6 900 correspondent à des composants et à de la R & D français et 3 100 euros à des composants importés.
Ian C Davies Conseil Inc.
24
L’utilisation du terme impact ne correspond pas exactement à la définition rappelée plus haut. Il convient de considérer que l’impact tel que mentionné par les termes de référence est un effet ; on s’en tiendra cependant dans ce rapport au vocabulaire des termes de référence. Ces impacts présentent vraisemblablement des difficultés d’évaluation. Les trois premiers types d’impacts sont essentiellement des impacts directs tandis que le dernier, intitulé « impacts sociaux et environnementaux », est essentiellement composé d’impacts indirects, difficiles à mesurer. Les impacts économiques ont été limités à des impacts plus micro-‐économiques ou de finances publiques qu’étendus à des impacts macro-‐économiques, dont les caractéristiques de long terme et de résultat d’effet multiplicateur rendent la mesure impossible dans le cadre des évaluations de projet. L’effet support dans les évaluations Les évaluations ont, dans la plupart des cas, cherché l’alignement sur les termes de référence. La non différenciation des termes de référence pour les FASEP et RPE a posé un problème aux évaluateurs des FASEP, en particulier jusqu’en 2011 quand un plan indicatif du rapport d’évaluation était fourni en annexe, (voir Effet de levier et effet support, remarque préliminaire) Si dans le cas des projets RPE, il s’agit de réalisations dont l’évaluation peut être fondée sur la recherche de faits probants, a contrario l’évaluation de prévisions d’impact dans le cas des FASEP, est beaucoup plus difficile car il s’agit non pas d’observer des résultats, mais d’apprécier une méthode de prévision. Les évaluations des effets support des FASEP-‐Etudes sont très limitées. Ceux-‐ci sont en général identifiés au constat d’un éventuel bénéfice pour la population du projet sous-‐jacent à venir. Parfois la composante accroissement des capacités de l’ingénierie est mentionnée. Les évaluations des effets support des FASEP-‐Formation professionnelle se limitent au constat d’un accroissement des capacités directement lié à la formation. Quelques évaluations, peu nombreuses, ont cherché à se départir du plan indicatif donné dans les termes de référence pour adopter une autre approche, en particulier en séparant les constats selon le niveau des impacts : projet, secteur, pays. Le respect du plan indicatif par les évaluateurs qui ont choisi de se tenir à la structure fournie par les termes de référence conduit souvent à des développements « forcés » sur des thèmes non pertinents pour le projet concerné. Le caractère « indicatif » aurait dû être davantage souligné dans les termes de référence. Les évaluations de l’effet support sont de qualité très variable selon les projets évalués. Comme dans le cas de l’effet de levier, il y a peu de données quantitatives à l’appui.
Ian C Davies Conseil Inc.
25
6.3 Les rapports d’évaluation de l’aide liée 2004-2012
L’équipe disposait, dès le commencement de la revue, de la liste des 11 évaluations réalisées sur la période 2004–2012, les rapports lui sont ensuite parvenus au fur et à mesure.
6.3.1 Protocole d’appréciation des rapports Elaboration d’une grille d’appréciation Afin d’apprécier les rapports d’évaluation, la revue a procédé à l’analyse de ces rapports sur base d’une grille simplifiée élaborée à partir de différents standards en matière d’évaluation9. > CAD10 : les Normes de Qualité pour l’Evaluation du Développement rédigées en février 2010 et actualisées depuis, comprennent des standards concernant spécifiquement la qualité des rapports d’évaluation – cf. pp.26-‐27 du document ci référencé. (http://www.oecd.org/fr/cad/evaluation/49898837.pdf) > UNEG11 : le réseau des unités d’évaluation des agences des Nations Unies s’est doté de standards permettant d’apprécier la qualité des rapports d’évaluation – c’est de loin le document le plus exhaustif. (http://www.uneval.org/document/detail/607) > UEAD : la Politique d’Evaluation des Actions d’Aide au Développement de l’UEAD, datant d’avril 2010, contient une « grille d’appréciation des travaux des consultants » pp. 21-‐22 du document ci-‐référencé. (http://www.tresor.economie.gouv.fr/File/394820) Protocole d’utilisation de la grille A partir de cette grille, des appréciations ont été faites pour chaque rapport. Dans une première phase la revue a réparti les 11 rapports d’évaluation de sorte que chaque membre de l’équipe a apprécié individuellement un ou plusieurs des rapports d’évaluation à l’aide de la grille. Une fois l’ensemble des rapports examinés par un des membres de l’équipe, la revue a, dans une deuxième phase, procédé à un deuxième examen : les 11 rapports d’évaluation et les 11 grilles d’appréciation remplies ont été revues par au moins un autre membre de l’équipe. Pour les études de cas sélectionnées, l’ensemble de l’équipe a participé à l’examen approfondi de chaque évaluation retenue.
9 Cette grille figure en annexe 1 du présent rapport. 10 Comité d’Aide au Développement de l’OCDE 11 United Nations Evaluation Group
Ian C Davies Conseil Inc.
26
6.3.2 Constatations Les analyses des rapports d’évaluation effectuées sur la base de la grille d’appréciation simplifiée permettent de confirmer que ceux-‐ci présentent un certain nombre d’insuffisances qui sont résumées ci-‐dessous. Les finalités et objectifs de l’évaluation • La raison de l’évaluation et son utilisation préconisée sont des éléments assez peu décrits dans les rapports : la majeure partie d’entre eux ne donne que quelques éléments succincts à ce propos, et 5 rapports sur les 11 ne contiennent aucune information à ce sujet. • La description de l’objet de l’évaluation se trouve, de façon générale, dans les rapports de façon plus ou moins exhaustive. Néanmoins si l’ensemble des rapports décrit de façon plus ou moins claire l’objet (ce qu’il s’agit d’évaluer), l’étendue de l’évaluation (ce que couvre l’évaluation et ce qui n’a pas été évalué) ne fait pas partie des éléments présentés. • Les objectifs ou les questions spécifiques de l’évaluation sont essentiellement absents de la majeure partie des rapports : 7 rapports sur les 11 ne précisent pas quelles ont été les questions d’évaluation. Par ailleurs, l’énoncé des objectifs de l’évaluation ne figure dans aucun des rapports, qui ne comportent ni éléments sur le type d’information recherché, pour qui et pour quoi. Méthodologie de l’évaluation • Les critères sont, d’une manière générale, très peu documentés. Les rapports n’expliquent pas la façon dont ceux-‐ci ont été opérationnalisés dans le cadre des évaluations (8 évaluations sur les 11). Les rapports ne comportent pas non plus d’information sur la pertinence des critères sélectionnés -‐ dans la mesure où l’ensemble des critères du CAD suggérés dans les termes de référence n’est pas systématiquement utilisé -‐ sur leur adéquation à la situation d’évaluation ou de considérations sur leurs limites. • Les méthodes de collecte des données et les types de sources font, de façon générale, l’objet d’assez peu de précisions : la plupart des rapports ne comporte que la liste des personnes interrogées, et 2 rapports sur les 11 ne contiennent pas du tout ce type d’information. • Pour l’ensemble des 11 rapports, le cadre analytique est par ailleurs, lorsqu’il n’est pas ambigu, relativement inapproprié relevant d’avantage du contrôle de conformité que d’un mode d’analyse à proprement parler. Résultats • Sur un plan formel, les constats principaux des évaluations ressortent assez clairement parmi les 11 rapports. Néanmoins, pour au moins 5 des rapports les constats sont peu substantiels et désorganisés, mêlant des éléments de jugements aux faits. Par ailleurs, les faits mentionnés ne sont pas appuyés par des preuves suffisantes (faits non probants). • L’analyse évaluative s’apparente généralement plutôt à une description, notamment dans 6 des rapports.
Ian C Davies Conseil Inc.
27
• Il est difficile d'identifier par rapport à quoi les conclusions (le jugement évaluatif) ont été formulées étant donné les éléments manquants mentionnés précédemment (questions d'évaluations, méthodologie et méthodes etc.) pour a minima 6 des rapports. • Les recommandations ne sont pas systématiquement pratiques, hiérarchisées, adressées et s’avèrent donc fréquemment peu actionnables.
Autres éléments du rapport • Les rapports contiennent très peu d’informations sur la mise en œuvre de l’évaluation : ils ne comportent pas d’éléments sur les parties prenantes de l’évaluation, sur le comité de pilotage, sur les difficultés rencontrées ou sur d’autres aspects du processus évaluatif. • Les rapports depuis 2008 ont fait l’objet d’une synthèse publiée (en version papier et/ou électronique), c.-‐à-‐d. 9 rapports sur les 11. Ces synthèses sont en revanche relativement peu accessibles au public puisque seulement 4 des 9 synthèses publiées ont été mises en ligne.
6.3.3 Évolution des rapports de 2004 à 2012 La qualité des rapports a peu progressé sur la période. Pour chacun des aspects examinés, qu’il s’agisse de la finalité et des objectifs de l’évaluation, des méthodologies employées, des résultats ou des autres éléments du rapport, il n’apparaît pas d’amélioration significative entre les premières évaluations examinées (réalisées en 2006) et les dernières (datant de 2011). Ceci dit, la qualité des rapports d’évaluation dépend en partie de la qualité des termes de référence.
6.3.4 Termes de référence sur la période 2004-‐2012 L’analyse des termes de référence des évaluations fait ressortir que ceux-‐ci sont presque identiquement volumineux, détaillés et prescriptifs pour chacune des évaluations de projets RPE-‐FASEP sur la période 2004-‐2012. Pour autant certains éléments fondamentaux pour une commande d’évaluation n’y sont pas précisés.
En effet, l’objectif des évaluations n’est pas perceptible à la lecture des termes de référence examinés. Si les objectifs font l’objet d’une section distincte et que celle-‐ci fournit des éléments sur le type d’information recherchée, aucun des termes de référence ne précise à quelle fin ni à qui ces informations sont destinées. Les projets RPE et FASEP sont traités de façon identique : la commande d’évaluation est la même pour l’évaluation des « projets » que contribuent à financer ces deux instruments.
Ian C Davies Conseil Inc.
28
Les critères centraux d’évaluation sont systématiquement les mêmes pour chacune des évaluations soit : pertinence, efficacité, efficience, économie, viabilité, impact, ce qui suggère une application « standardisée » des principes et des critères de l’OCDE-‐CAD pour apprécier des projets dont la nature et les enjeux sont différents et diversifiés. En particulier, les termes de référence confondent les objectifs avec les critères de l’évaluation dans la mesure où ceux-‐ci stipulent par exemple « L’objectif de l’évaluation est de porter un jugement indépendant et argumenté sur l’utilisation de l’instrument FASEP-Études dans le secteur MDP/MOC à partir des 8 projets FASEP exécutés à ce jour dans ce secteur, selon les cinq critères d’évaluation convenus dans le cadre du CAD-OCDE, à savoir la pertinence, l'efficacité, l'efficience, l’impact et la durabilité.» Aussi, la formulation « standardisée » des termes de référence ainsi que leur niveau de détail tendent dans une certaine mesure à uniformiser tant la réalisation de l’évaluation que la façon dont sont rendues les conclusions et les recommandations. Certaines demandes systématiques des termes de référence apparaissent problématiques dans la mesure où elles adressent à l’évaluation une commande dont les produits relèvent de la responsabilité d’autres fonctions – notamment les fonctions de gestion et de contrôle -‐ par exemple : la formulation de la logique d'intervention, la vérification de l’éligibilité des projets (au FASEP et à la RPE) et la vérification de l’exécution technique et financière des projets. Aussi les demandes d’appréciation des effets support et de levier présentent des difficultés dans la mesure où d’une part l’objectif support des projets n’est souvent pas prioritaire et d’autre part ces effets, particulièrement de levier, ne sont pas précisés de façon claire dans l’instruction des projets FASEP et RPE. 6.4 Appels à manifestation d’intérêt et termes de référence récents
La revue a également examiné une sélection d’appels à manifestation d’intérêt (AMI) et de termes de référence pour des évaluations RPE et FASEP récentes (réalisées après 2012) afin de tenir compte dans ses recommandations de la situation telle qu’elle se présente actuellement. En effet, si la revue du dispositif d’évaluation faisant l’objet du présent rapport porte sur une période qui s’achève en 2012, depuis, quelques modifications du dispositif d’évaluation par la DG Trésor ont été mises en place. Notamment l’établissement des termes de référence a été revu en supprimant à la fois la structure imposée du rapport d’évaluation et son corollaire la grille d’appréciation des projets.
Ian C Davies Conseil Inc.
29
Appels à manifestation d’intérêt Les documents examinés concernent : -‐ La réalisation d’une évaluation rétrospective relative à un projet d’amélioration d e la prise en charge des urgences dans les régions touchées par le tsunami de décembre 2004 (décembre 2013). -‐ La réalisation d’une évaluation rétrospective de deux lignes de crédit en faveur des PME PMI en Tunisie (RPE) et dans les territoires palestiniens (FASEP). Les appels à manifestation d’intérêt sont très cadrés, et mentionnent p. ex. des éléments méthodologiques tels que les critères du CAD, l’effet support et l’effet de levier, etc. Ils apportent l’essentiel des informations contenues dans les TdR, qui ne diffèrent de ce fait pas grandement de l’appel à manifestation d’intérêt dans la mesure où ils n’apportent ensuite que des informations complémentaires sur les projets, le contexte, les résultats attendus, le calendrier, le comité de pilotage. Selon l’UEAD, « depuis 2011 les termes de référence essaient de se démarquer des AMI en introduisant des questions évaluatives et plus de détail sur l’objet à évaluer, par exemple pour les grappes FASEP, la liste des projets qui la constitue et quelques variables sur ces projets. La difficulté vient de : (1) l’absence /faiblesse des données/documents publics sur ces projets (confidentialité) ; (2) la difficulté d’accès de l’UEAD à ces données/documents ; et (3) leur indisponibilité tout simplement. » Termes de référence Les termes de référence examinés concernent: • L’évaluation rétrospective d’un projet sur la RPE dans le domaine de la santé, • L’évaluation rétrospective d’une grappe de projets financés sur le FASEP-‐Innovation verte,
• L’évaluation rétrospective de deux lignes de crédit en faveur des PME PMI en Tunisie (RPE) et dans les territoires palestiniens (FASEP).
Ces TdR examinés sur la période post 2012 sont relativement similaires à ceux des évaluations qui font l’objet de cette revue. En effet les TdR récents demandent d’une part de reconstruire « la logique d’intervention » ce qui, tel que mentionné dans ce qui précède présente un certains nombre de risques. Ceux-‐ci posent d’autre part les critères CAD comme base d’évaluation tant dans les appels à manifestation d’intérêt que dans les termes de référence, et n’évoquent pas systématiquement la possibilité pour l’évaluateur de proposer des approches et des méthodologies différentes. On note cependant que certains des TdR permettent une plus grande flexibilité dans l’utilisation des critères et que l’évaluateur est également enjoint à en proposer d’autres ; ils offrent également la possibilité de proposer des questions supplémentaires.
Ian C Davies Conseil Inc.
30
Aussi, les TdR récents focalisent toujours l’évaluation sur les effets dits support et de levier dans une perspective de « résultats ». De plus les méthodes de collecte de données sont également toujours prescrites, et le comité de pilotage est toujours appelé à jouer entre autre un rôle de gestion. Cependant, il est à noter que les termes de référence récents peuvent être considérés comme moins contraignants dans la mesure où ils n’incluent plus une structure détaillée du rapport.
Ian C Davies Conseil Inc.
31
7. Études de cas
Trois évaluations menées durant la période 2004-‐2012 ont été sélectionnées pour un examen plus approfondi. Leurs rapports ont fait l’objet d’une appréciation systématique, ainsi que leurs termes de référence, notes de structuration et d’autres documents y relatifs. La revue a fait son choix basé sur les critères suivants:
• le type de projet, soit RPE, FASEP et RPE-‐FASEP, • des secteurs différents, • au moins un multi pays, • des consultants différents pour chaque évaluation retenue y inclus un consultant ayant effectué plusieurs évaluations pour le compte de l’UEAD,
• des projets aussi récents que possible. La présentation des études de cas est structurée en fonction de l’évaluation spécifique qui a été examinée. Pour cette sélection d’évaluations la revue formule des observations sur la collecte de données y inclus les visites terrain, l’analyse des données et l’établissement des constats, la formulation des conclusions et des recommandations, et porte un regard sur la mise en œuvre de l’évaluation aux étapes clés notamment la structuration de l’évaluation. 7.1 RPE : Evaluation de la fourniture d’équipements, de machines-outils et
d’assistance technique au Vietnam
7.1.1 Sommaire L’évaluation rétrospective du projet RPE de fournitures d’équipements, de machines-‐outils et d’assistance technique au Vietnam, a été réalisée par le cabinet Ernst & Young en 2008 et le rapport finalisé en janvier 2009. Approuvé en 2001, le projet a été exécuté par la société Alstom, prestataire principal, qui a fait appel à plusieurs entreprises sous-‐traitantes pour la fourniture des machines-‐outils et la réalisation de formations (Systra). Il consistait en la fourniture de 16 machines-‐outils en maintenance ferroviaire et 9 petits équipements ; l’organisation de formations des ateliers des chemins de fer vietnamiens à l'utilisation de ces machines-‐outils et équipements ; l’organisation de formations du management des chemins de fer vietnamiens à l'organisation de la maintenance) réparti sur trois sites (Hanoi, Ho chi Minh Ville et Vinh). Le montant du projet s’est élevé à 6,7 M€, dont 85% ont financé la livraison des équipements et machines. Le projet a été clôturé à la fin de l’année 2005.
Ian C Davies Conseil Inc.
32
L’évaluation avait pour objet d'exprimer une opinion indépendante et motivée sur la pertinence, l'efficacité et l'efficience du projet, son adéquation avec les critères d'éligibilité à la réserve pays émergents (RPE) et son impact. En ce sens, l’évaluation devait identifier dans quelle mesure le projet a permis un transfert de technologies en faveur du Vietnam dans le domaine des transports, notamment du transport ferroviaire, et quels gains respectifs les deux parties en ont retirés. L’évaluation conclut que le projet a été exécuté conformément au contrat et qu’il a été pertinent au regard du double objectif de la coopération économique française : répondre aux besoins du secteur ferroviaire vietnamien et promouvoir les entreprises et la technologie françaises. La préface du chef de l’UEAD au rapport synthèse dit : « Le projet a apporté des résultats localisés positifs de façon directe ou indirecte. Par exemple, une baisse des temps de révision a été constatée (une locomotive est révisée en 30 jours en 2008 contre 50 jours en 2000) ou la mise en place d’un système de suivi informatisé dans un atelier a permis d’augmenter le nombre de locomotives en fonctionnement de 8 à 14. A ces éléments directement imputables au projet, une contribution indirecte du projet sur les impacts attendus a été identifiée. Au niveau des ateliers, l'évaluation a constaté une augmentation globale de leur activité, de l'ordre de 13% pour les réparations légères, et 68% pour les réparations lourdes, et portant principalement sur les wagons et voitures. On note également une réduction du temps de trajet entre Hanoi et Ho Chi Minh Ville, passé de 32 heures en 2000, à 30 heures en 2003 à 29h30 en 2004 à laquelle une amélioration de la qualité du matériel roulant peut contribuer. Enfin, la sécurité est en légère progression puisqu’il a été constaté une baisse du nombre d’accidentés. »
7.1.2 Observations Processus et rapport d’évaluation Les deux tiers environ du rapport d’évaluation sont consacrés à un contenu essentiellement descriptif et se rapportant à la pertinence, la cohérence, la complémentarité, les modalités de mise en œuvre ainsi que l’exécution technique et financière du projet. Un tiers du contenu traite des questions de résultats et d’impact pour le pays et pour les entreprises françaises.
Ian C Davies Conseil Inc.
33
L’examen de la documentation relative à l’évaluation du projet, en particulier les termes de référence, la note de structuration et l’évaluation du travail des consultants par le comité de pilotage, ainsi que des entretiens avec l’équipe d’évaluation, indique une cohérence générale entre les attentes de la DG Trésor, le travail fait et le rapport d’évaluation. Aussi l’allocation de l’effort de l’équipe d’évaluation apparaît reflétée de manière proportionnelle dans la répartition du contenu du rapport final d’évaluation. L’évaluation a été en grande partie un exercice de prise de connaissance du déroulement du projet et une vérification de son exécution technique et financière. Une partie importante de l’effort d’évaluation a aussi porté sur la prise de connaissance des contextes dans lesquels s’est réalisé le projet. Ainsi l’évaluation, son processus et ses résultats, s’apparentent plutôt à un contrôle de fin de projet et dans une certaine mesure à un audit de performance, qu’à une évaluation. Cette observation ne reflète pas uniquement comment l’évaluation a été menée par les consultants, mais aussi et de façon prépondérante la conception particulière de l’UEAD, de la DG Trésor et du Comité de pilotage de ce en quoi consiste l’évaluation et son exercice, et à plus forte raison dans les cas des projets RPE et FASEP. Ceci dit, l’évaluation, telle que présentée dans le rapport final, ne traite pas de façon claire et explicite des questions relatives aux résultats et aux effets du projet. Les appréciations de l’efficacité et de l’efficience du projet sont générales et la formulation des conclusions reste vague. En matière d’impact, l’évaluation évoque la possibilité d’effets mais ne donne que peu d’éléments probants qui permettraient de comprendre de façon claire la portée réelle du projet, particulièrement en matière d’effets de support, de vitrine et de levier. Ceci ne veut pas dire qu’un certain travail d’analyse n’ait pas été fait. Le rapport contient ici et là des constatations assorties d’éléments d’analyse qui apparaissent pertinents au regard de la problématique de l’efficience et de l’efficacité de l’aide ainsi que des résultats inattendus. Mais ceux-‐ci restent noyés dans le contenu plutôt descriptif du rapport et ne donnent pas lieu à un développement en vue d’une appréciation plus informée et soutenue de la valeur du projet pour le Vietnam et pour la France. Mais ce qui frappe surtout c’est la contradiction apparente entre le ton généralement assez positif de l’appréciation générale de l’évaluation, telle que résumée dans la préface au rapport, et les jugements évaluatifs somme toute assez négatifs sur presque tous les aspects du projet comme : « Le projet affiche des résultats décevants et très localisés » et « Ce constat remet en question la viabilité technique du projet à plus long terme. »
Ian C Davies Conseil Inc.
34
Finalement, et en dépit du fait que les difficultés méthodologiques d’attribution d’effets aient été soulignées tant dans la note de structuration que dans le rapport, la validité des inférences présentées par l’évaluation est fortement discutable, particulièrement lorsqu’il s’agit de considérations relatives à la densité des chemins de fer Vietnamiens, la réduction du temps de trajet et le niveau de sécurité. Aussi les déclarations portant à croire que l’augmentation globale des activités des ateliers soit due à l’ajout du matériel et des services français n’est pas soutenue par une analyse valide et appuyée de faits probants d’autant plus que les résultats sont décevants. Le fait que l’évaluation ait été considérée comme ayant été bonne et les prestations des consultants aient été notées comme satisfaisantes, et ce en dépit des observations qui précèdent, soulève des questions quant au contrôle et à l’assurance qualité de l’évaluation. 7.2 L’évaluation RPE-FASEP : Reconstruction post crise
7.2.1 Sommaire L’évaluation rétrospective de projets RPE et FASEP de reconstruction post crise a été réalisée en 2011 par le cabinet SCE Aménagement et environnement.
L’évaluation porte sur un ensemble de cinq projets de reconstruction suite à des catastrophes naturelles, dont deux financés sur la Réserve Pays Émergents (RPE) et réalisés au Sri Lanka, et trois sur le Fonds d’Etudes et d’Aide au Secteur Privé (FASEP) réalisés en Indonésie et en Chine. L’ensemble de ces projet s’est déroulé sur une période allant de 2005 à mai 2010 et représentent un montant global de 24,3M€ d’aide française. RPE Sri Lanka : Ce premier projet RPE de réhabilitation d’un système d’alimentation en eau potable sur l’agglomération de Kinniya, initié en 2005, vise 350 000 personnes bénéficiaires (projet de 12,5M€). La réalisation de ce projet a été attribuée aux groupes français Sté Canal de Provence (étude et contrôle) et Vinci Construction Grands projets. Suite au tsunami du 26 décembre 2004, un deuxième projet RPE mis en œuvre de 2007 à 2009 a eu pour objectif d’aider à la reconstruction par la mise en place d’un système d’informations géoréférencées (projet de 6,52 M€). Les prestations ont été réalisées par le groupe FIT Conseil associé à IGN-‐FI.
Ian C Davies Conseil Inc.
35
FASEP Indonésie : Ce projet a fait l’objet de deux financements FASEP de 3,2 M€ au total, dans le cadre d’un programme de reconstruction suite au tsunami de 2004. Ce projet d’assistance technique en 2 volets exécutés de mai 2005 à juin 2007 visait à accompagner la mise en œuvre de sous projets démonstratifs de bonnes pratiques de construction face aux risques naturels. Ces prestations ont été réalisées sous la responsabilité de SOGREAH en association avec EGIS BCEOM et SAFEGE. FASEP Chine : Suite au séisme de 2008 dans la province du Sichuan, ce FASEP a financé une assistance à maîtrise d’ouvrage dans le cadre de la reconstruction de logements et d’infrastructures, afin d’assurer un contrôle qualité par rapport à l’adoption de standards internationaux de reconstruction et de vérifier l’application des directives de la Banque Mondiale concernant les volets sociaux et environnementaux (projet de 2M€), sur la période 2009-‐ 2010. Cette prestation a été réalisée par le Bureau VERITAS, chef de file, associé à SOGREAH et AREP Ville. L’évaluation avait pour objet d’exprimer un jugement professionnel indépendant pour éclairer à la fois « la pertinence, la cohérence, l’efficacité, l’efficience, la durabilité et l’impact des projets concernés, en prenant en compte le double objectif des projets financés sur les instruments RPE et FASEP de promouvoir l’expertise des entreprises françaises à l’international (effet de levier) et de contribuer au développement des pays bénéficiaires (effet support). » En ce sens, l’évaluation devait identifier dans quelle mesure les projets, en tenant compte de leurs spécificités respectives, ont permis un transfert de technologie vers les pays concernés en matière de reconstruction, et quels ont été les bénéfices à la fois pour la France et les entreprises françaises, et pour les pays bénéficiaires.
7.2.2 Observations Processus et rapport d’évaluation Les termes de référence rappellent que, classiquement, « la méthodologie mise en œuvre devra permettre de porter un jugement argumenté selon les six critères de l’évaluation : pertinence, cohérence, efficacité, efficience, impacts et viabilité. » Ils assignent à l’évaluation trois buts :
1. connaître la valeur ajoutée des actions de la DG Trésor dans un contexte de reconstruction post crise, au regard des objectifs des instruments RPE et FASEP ; 2. concevoir des dispositifs d’interventions à partir des instruments RPE et FASEP adaptés aux situations rencontrées en tirant les leçons des expériences précédentes dans les pays d’intervention en phase post crise ; 3. améliorer, rationaliser et mieux coordonner les actions de la DG Trésor au sein de l’intervention française dans des pays en développement fragilisés.
Ian C Davies Conseil Inc.
36
Les deux derniers buts ont été, dans l’ensemble, atteints, le premier beaucoup moins, comme le confirme la non réalisation de la plupart des objectifs assignés par les termes de référence à l’évaluation. Les termes de référence précisent qu’à partir des éléments issus de l’évaluation, il s’agit de : « mettre en exergue les avantages comparatifs et les inconvénients de la RPE et du FASEP en post crise ; élaborer une typologie de l’intervention post crise avec le FASEP et/ou la RPE ; de dégager des recommandations visant à améliorer la capacité de réponse de la DG Trésor. » Ces questions ont été traitées, mais sans rapport direct avec les évaluations de projets FASEP ou RPE évalués (voir plus loin). Des appréciations projet par projet, il est possible de tirer une appréciation globale de l’évaluation : Contexte : le contexte est généralement bien exposé par contre la réponse du gouvernement et celle de l’aide internationale sont parfois insuffisamment traitées. La prestation sous financement RPE : la prestation sous financement RPE est une description sommaire du projet sans analyse du choix de l’instrument. Pertinence : la pertinence est trop peu analysée, soit qu’elle ne traite pas de son adéquation avec l’objectif fixé, soit que les objectifs du projet soient trop généraux. Efficacité : l’efficacité est généralement confondue avec l’effectivité, c’est-‐à-‐dire la constatation du service fait. Encore, dans cet exercice, les faits probants sont rares. Efficience : les développements de la rubrique ne traitent pas vraiment de l’efficience, qui est un critère d’évaluation de la minimisation des coûts des produits du projet. Ils traitent plutôt de sujets connexes liés au déroulement du projet, tels que les délais, etc. Cohérence interne et externe : elle est dans l’ensemble non traitée quoiqu’évoquée sommairement. Viabilité : la viabilité est traitée de façon argumentée pour deux projets seulement. Effet de levier : celui-‐ci est identifié pour trois des quatre projets mais les conclusions sont à court terme et insuffisamment justifiées. Dans un autre cas, l’absence d’effet de levier est clairement présentée. Effet support au développement : l’effet support au développement n’est pas bien traité, soit qu’il soit confondu avec le critère d’efficacité, soit qu’il invoque des principes généraux (la fourniture d’eau potable est toujours bénéfique), soit qu’il repose sur des suppositions en l’absence de faits probants. Adaptation de l’outil au contexte : cette dimension des rapports traite plus du projet que de l’outil FASEP. Les développements à ce titre analysent le projet plus du point de vue de la pertinence ou de l’efficacité que de l’adaptation du FASEP au contexte. Une évaluation analyse bien la combinaison des financements RPE et AFD compte tenu du contexte de crise.
Ian C Davies Conseil Inc.
37
Appréciation des analyses d’ensemble Les analyses d’ensemble s’ordonnent autour de quatre chapitres : lignes directrices de mise en œuvre d’une intervention post crise ; assistance à la sortie de crise : première analyse des secteurs d’intervention et prestations à privilégier par l’aide–projet de la DG Trésor ; préparation des interventions en contexte post crise ; propositions opérationnelles de mise en œuvre d’une aide projet en contexte post crise. Ces chapitres répondent aux buts 2 et 3 assignés à l’évaluation. Ils donnent lieu à des développements très détaillés qui sont autant de propositions sans doute pertinentes mais qui sont sans lien avec les évaluations des projets, du moins sans lien direct. Les constats des évaluations individuelles ne sont pas mis à contribution à l’appui de ces propositions, qui apparaissent résulter plus d’une connaissance générale chez les évaluateurs des questions de post crise que des évaluations des projets. Ceci ne signifie pas que ces évaluations individuelles n’aient pas contribué à former l’opinion des évaluateurs, mais le lien entre les évaluations individuelles et les propositions n’apparaît pas. En dehors de leur déconnexion avec les évaluations des projets, ces analyses et recommandations présentent des qualités et des défauts. Leur qualité est une recherche approfondie de solutions susceptibles de répondre aux questions posées par les termes de référence. De nombreuses options sont proposées et, pour la plupart, argumentées mais pas de façon valide. Leurs défauts sont :
• de s’appuyer plus sur des considérations logiques que sur des constats qui auraient permis de valider les choix d’options proposés, constats qui ne peuvent être trouvés compte tenu de la faiblesse des évaluations individuelles des projets ;
• certaines propositions demeurent sans véritables argumentations, en particulier les propositions relatives aux domaines possibles d’intervention des entreprises françaises ;
• le réalisme des propositions n’a pas toujours été vérifié ; certaines propositions, en particulier, malgré leur pertinence, représenteraient, si elles étaient mises en œuvre, une charge très lourde pour la DG Trésor, sans doute hors de portée des moyens disponibles ou, qu’il faudrait, au minimum, évaluer en termes de coûts / avantages.
Comparaison entre les termes de références et la note de structuration La note de structuration de cette évaluation s’est s’éloignée sensiblement des TdR indiquant une volonté de s’affranchir de la structure relativement standardisée du rapport qui y est préconisée.
Ian C Davies Conseil Inc.
38
Si les TdR requièrent une analyse détaillée projet par projet -‐ une annexe aux TdR mentionne d’ailleurs la structure indicative d’évaluation de chaque projet -‐ la note de structuration précise le parti pris de renoncer à réaliser une évaluation projet par projet dans le format de la structure standard : « … nous suggérons d’adapter (alléger) la structure des rapports d’évaluation des projets individuels indiquée en annexe 2 des Termes de Référence en fonction des spécificités de l’étude menée. » La note de structuration précise que les évaluateurs ont renoncé à répondre à toutes les questions évaluatives (une quinzaine) mentionnées dans les TdR, et propose de se limiter aux principales questions structurantes. Ces trois questions reprennent partiellement les principaux objectifs relatifs à l’adaptation des outils FASEP et RPE au contexte post crise. La note de structuration propose de reconstituer la genèse et la logique initiale des projets et de les évaluer selon les six critères classiques et non selon la structure indicative standard donnée dans les TdR.
Ian C Davies Conseil Inc.
39
7.3 Évaluation d’une grappe de projets à volet MDP/MOC financés sur le
FASEP-Études
7.3.1 Sommaire Cette évaluation rétrospective, réalisée par les firmes Frontier Economics et Ecofys, portait sur une grappe de huit projets financés entre 2005 et 2010 sur le fonds d’études et d’aide au secteur privé (FASEP-‐Études) en amont de mécanismes de projets pour un Développement Propre (MDP) et Mise en Œuvre Conjointe (MOC) issus du Protocole de Kyoto. Les montants de l’aide FASEP, variant entre 175.000 € et 700.000 €, ont été attribués dans sept pays – Chine, Brésil, Maroc, Colombie, Uruguay, Ukraine et Bénin – et 5 secteurs d’intervention FASEP – déchets, eau, énergie, énergies renouvelables et environnement. Les financements du FASEP-‐Études portaient à la fois sur l’étude de faisabilité technique et financière du projet sous-‐jacent, et sur une étude visant à déterminer la possibilité pour ce projet d’obtenir des crédits carbone, et à valoriser les revenus potentiels provenant de la revente de ces crédits dans le cadre du protocole de Kyoto – à travers les mécanismes MDP et MOC. L’évaluation visait à fournir des recommandations opérationnelles et des orientations stratégiques pour l’outil FASEP-‐Études dans le futur, à travers : · L’évaluation rétrospective des huit études de faisabilité financées sur l’outil FASEP-‐MDP/MOC, au regard des deux objectifs du FASEP : l’effet de support au développement du pays d’accueil du financement, et l’effet de levier pour les exportations de matériel et de services français. · L’analyse de l’évolution de la « finance climat » et de la mise en place de nouveaux outils de valorisation financière des réductions d’émissions, qu’ils soient nationaux ou multilatéraux. Sur le plan opérationnel l’évaluation repose sur l’analyse détaillée et comparative des huit financements FASEP-‐MDP/MOC, à travers le prisme des critères d’évaluation du CAD : pertinence, efficacité, efficience, impact, durabilité. Sur le plan stratégique l’évaluation repose sur une analyse de l’évolution de la « finance climat » et de la mise en place de nouveaux outils de valorisation financière des réductions d’émissions, basée sur les connaissances et l’expertise dans ce domaine des cabinets conduisant l’évaluation. L’évaluation note que le taux de réussite des huit FASEP étudiés est similaire au taux de réussite général des FASEP en date de 2012 et indique que les raisons principales de non réalisation des projets sous-‐jacents aux études FASEP-‐MDP/MOC, et les difficultés majeures rencontrées par ces projets, sont identiques aux contraintes rencontrées lors des financements par le FASEP-‐Études d’une manière générale.
Ian C Davies Conseil Inc.
40
L’évaluation considère qu’en matière d’effet support, l’impact du volet MDP/MOC a été relativement important. En matière d’effet de levier, l’évaluation constate que le volet MDP/MOC n’a pas contribué au développement d’exportations françaises. Précisément pour les trois études ayant donné lieu à un projet (Chine, Brésil, Maroc), des entreprises françaises étaient positionnées dans deux cas : la fourniture de matériel et d’équipement pour les projets chinois et marocain. Dans aucun de ces cas la réalisation de l’enregistrement MDP des projets par des consultants français n’a permis aux entreprises françaises de remporter les contrats. L’évaluation constate de plus que le financement par le FASEP-‐Études du volet MDP/MOC a surtout contribué au développement des compétences de consultants français – un impact relativement commun à l’ensemble des FASEP. Finalement, il apparait fréquemment que l’étude de faisabilité a eu un effet vitrine pour les acteurs français localement En matière de recommandation principale, l’évaluation conseille de ne pas poursuivre, sauf demande ou besoin spécifique du bénéficiaire local, le financement du volet MDP/MOC d’études de faisabilité financées sur le FASEP.
7.3.2 Observations Processus et rapport d’évaluation L’évaluation est focalisée surtout sur le volet MDP/MOC conformément à sa finalité principale telle qu’énoncée dans les termes de référence. L’analyse et les recommandations portent donc en grande partie sur cet aspect, et la question qui est de savoir si l’instrument FASEP est approprié au financement du volet MDP/MOC. Celles-‐ci par ailleurs reposent surtout sur la connaissance et l’expertise des firmes consultantes qui ont mené l’évaluation et apparaissent crédibles et en accord avec les constats faits sur les projets FASEP qui ont été examinés. En revanche, l’utilisation des critères du CAD, qui est demandée par les termes de référence, et donc de l’approche méthodologique qui en découle, ainsi que la « reconstitution du cadre logique », apparaissent comme des éléments de méthodologie inadaptés pour bien saisir les réalités de ces projets. La reconstitution du cadre logique d’intervention reflète davantage un ciblage souhaitable en matière d’effets de support et de levier présenté de façon générale et abstraite et assorti d’effets attendus difficilement appréhendables par l’évaluation, plutôt qu’une description fidèle de la réalité de ce qui était prévu par les FASEP au départ.
Ian C Davies Conseil Inc.
41
Les éléments clés de contexte propres à chaque projet ne font l’objet d’aucune considération dans le cadre logique, alors que, comme le démontre finalement l’évaluation, ceux-‐ci sont déterminants. On note aussi un manque de maitrise de l’outil « cadre logique », dans la mesure où par exemple des produits de « l’intervention » comme l’étude de faisabilité y sont décrits comme des effets immédiats. Il en va de même aussi pour l’utilisation d’une soi-‐disant « analyse contrefactuelle » sur laquelle reposerait l’essentiel de la méthodologie « comparative » qu’aurait employée l’évaluation. Tout en appréciant la valeur des comparaisons qui auraient été faites entre projets du même type ainsi que l’effort d’interview portant sur les alternatives, il n’est pas valide sur le plan méthodologique de décrire l’exercice comme étant basé sur un design employant un « contrefactuel ». La discussion sur les conclusions et les recommandations ne présente pas clairement, et de façon systématiquement référée au « cadre logique d’intervention » et aux constats qui s’y appliqueraient, les conclusions relatives aux questions formulées sur base des critères du CAD. En particulier les éléments d’analyse et d’appréciation des effets de levier, de vitrine et de support sont peu développés sur base de données et de constats probants, et apparaissent généraux et vagues. En revanche la discussion, et particulièrement celle portant sur les « Lignes directrices de mise en œuvre d’une intervention post-‐crise » , qui repose davantage sur l’expertise des consultants, mène de façon raisonnée, crédible et basée sur les constats, à des recommandations relativement précises et pertinentes au regard de la problématique identifiée au départ dans la commande de l’évaluation. Au final, l’évaluation apparaît de bonne qualité malgré la contrainte d’une approche CAD inadaptée à l’objet et à la question de l’évaluation mais qui, ayant été demandée au départ par les termes de référence, a néanmoins été utilisée par le consultant. Comparaison entre les TdR et la note de structuration La note de structuration est en relative cohérence avec TdR. Il convient cependant de noter que les TdR sont moins contraignants que ceux des deux évaluations précédentes qui ont fait l’objet d’études de cas, notamment car ceux-‐ci ne précisent ni n’imposent une structure prédéfinie du rapport. La note de structuration reconstitue le cadre logique des effets de levier et support. Elle propose un ensemble de questions évaluatives autour des critères du CAD appliqués à l’évaluation des deux effets levier et support dans une optique de recherche d’une comparaison avec un contrefactuel (cf. les observations à ce propos dans la section précédente).
Ian C Davies Conseil Inc.
42
8. Conclusions
8.1 Approche évaluative
Basés principalement et de façon restreinte sur les principes et les critères d’évaluation de l’OCDE-‐CAD, les termes de référence12 pour l’évaluation des FASEP et des RPE réfèrent à un cadre méthodologique d’évaluation approprié à l’aide au développement13. Or la mise en œuvre des instruments FASEP et RPE vise souvent principalement le soutien aux entreprises françaises en favorisant l’exploitation par celles-‐ci d’opportunités dans des économies en développement et en transition. Dans la plupart des cas une contribution positive au développement du pays bénéficiaire est visée de façon implicite et secondaire en assurant le respect des critères de sélection des pays14. La revue constate que la façon dont les évaluations des FASEP et des RPE sont commanditées par l’UEAD et réalisées par les consultants externes correspond peu à la réalité des priorités commerciales et politiques des FASEP et des RPE. En d’autres mots l’approche évaluative focalisée sur le développement et utilisée pour les évaluations FASEP et RPE n’est pas toujours en adéquation avec les réalités des objectifs et des processus de mise en œuvre de ces derniers. De ce fait, la reconstitution de la « logique d’intervention », demandée par les termes de référence et faite par l’évaluation, apparaît souvent davantage comme une tentative de recadrage des objectifs et de la mise en œuvre des FASEP et des RPE pour pouvoir appliquer une approche et un cadre méthodologique préétablis – notamment par l’OCDE-‐CAD -‐ que pour cerner et capter leur réalité. Le risque, donc, est que ce qui est évalué à travers le prisme d’une reconstitution dont la fidélité n’est pas connue soit au mieux une partie seulement de l’intervention et de ses effets et au pire une réalité virtuelle. C’est donc le cadre de référence conceptuel et méthodologique pour les évaluations FASEP et RPE qui est à revoir et à développer en fonction de leurs réalités.
12 Ainsi que le document de la DG Trésor « Politique de l’évaluation des actions d’aide au développement – Guide méthodologique ». 13 Dans le sens traditionnel de l’aide projet au développement délié et d’une conception de la valeur de l ‘aide définie par une représentation linéaire et causale de la performance de l’intervention (logique d’intervention) souvent réductrice et simpliste. 14 Ad minima non nocere
Ian C Davies Conseil Inc.
43
8.2 Spécificité
La revue constate que dans le cas des évaluations de projets RPE, qui constituent 9 des 11 évaluations examinées par la revue, les termes de référence demandent, et les évaluations réalisent, des vérifications qui appartiennent au domaine du contrôle plutôt qu’à celui de l’évaluation. Spécifiquement sont demandées et réalisées une vérification de la conformité des projets RPE avec les critères d’éligibilité à cette dernière ainsi qu’une « évaluation » de l’exécution technique et financière qui s’apparente à un contrôle de service fait. Dans certains cas cette vérification incorpore des éléments d’efficience de sorte que « l’évaluation » se rapproche dans ces cas du contrôle de gestion ou de l’audit de performance. En tout état de cause une part importante de l’effort d’évaluation, qui est reflété de façon proportionnelle dans les rapports, est consacrée à des activités qui sont une responsabilité de gestion appartenant aux services qui assurent la mise en œuvre des projets RPE et n’appartiennent pas en tant que telles au domaine de l’évaluation. La spécificité de l’évaluation, sur laquelle est basée entre autres sa valeur ajoutée, mérite d’être clarifiée et rendue explicite, non seulement par rapport au contrôle mais aussi en cohérence et dans le respect des rôles et responsabilités respectifs des acteurs organisationnels de la DG Trésor. Encadré 5 : Précisions sur l’évaluation À la différence d’une part du contrôle qui s’intéresse aux coûts, aux procédures et aux produits de l’intervention, et d’autre part du contrôle de performance qui s’intéresse à l’atteinte des effets escomptés, l’évaluation dépasse ces considérations pour s’intéresser aussi aux effets non escomptés sur la population ciblée ainsi que d’autres groupes affectés par l’intervention, autant positifs que négatifs. Sur le plan méthodologique l’évaluation dépasse la constatation de ce qui a été fait et atteint -‐ le « quoi », qui est le propre et le périmètre du contrôle -‐ pour traiter du « pourquoi » et de la valeur ajoutée ainsi que du « pour qui » dans « quel contexte ».
Ian C Davies Conseil Inc.
44
8.3 Qualité
De façon générale les évaluations peinent à rendre un jugement évaluatif valide sur les résultats, c’est-‐à-‐dire les « effets » et particulièrement sur les « impacts ». Ceci s’explique en partie par le manque d’adéquation entre l’approche méthodologique et le projet évalué, ainsi que par une demande ambitieuse et parfois irréaliste quant à l’évaluation des résultats – dans la mesure où ceux-‐ci ne sont pas escomptés de façon explicite et mesurable en début de projet. Dans ces circonstances l’évaluation a parfois recours à des argumentations qui, malgré leur éloquence, sont faibles en termes de validité scientifique. Alors que l’évaluation dit utiliser des techniques que l’on retrouve couramment dans la pratique de l’évaluation, telles que la « chaine de résultats » ou l’analyse « contrefactuelle » pour en citer quelques-‐unes, celles-‐ci ne sont souvent pas maitrisées. De surcroît, des questions fondamentales de validité interne ou de fiabilité des données par exemple ne sont pas évoquées. 8.4 Encadrement
De façon générale le déroulement des évaluations, à partir de l’attribution du marché au consultant externe jusqu’à la remise du rapport final de l’évaluation, s’effectue correctement et sans problèmes significatifs. Ceci dit les évaluations se heurtent souvent à des difficultés de disponibilité ou d’accès à la documentation requise pour mener à bien la collecte de données. Le rôle spécifique du comité de pilotage, quoique ce dernier soit apprécié généralement pour son regard d’ensemble et sa réflexion, n’apparaît pas clair. En effet celui-‐ci semble jouer de façon indistincte des rôles de pilotage, de parties prenantes, de groupe de référence, de contrôle de qualité et de validation tant sur le plan de la méthodologie et du contenu de l’évaluation que sur le plan contractuel, ainsi que de suivi. Cet état de choses porte à confusion et peut nuire à la gestion contractuelle de l’UEAD ainsi qu’à la qualité de l’évaluation. En effet, le comité de pilotage n’a pas a priori les compétences requises pour juger de la qualité des termes de référence accompagnant l’appel d’offres, de l’offre et donc de la qualité attendue de l’évaluation – ceci nécessitant des qualifications en matière d’évaluation. De plus, font partie du comité de pilotage des instances de gestion opérationnelle qui ne devraient pas avoir de responsabilités de gestion et de pouvoir vis-‐à-‐vis l’évaluation dans la mesure où cette position présente un risque d’influence sur l’évaluation qui pourrait compromettre son indépendance. En particulier la fonction d’assurance qualité doit faire l’objet d’une organisation et d’un processus propres, basés sur un apport d’expertise en évaluation de haut niveau.
Ian C Davies Conseil Inc.
45
8.5 Utilisation
Le pourquoi de l’évaluation, sa raison d’être, ne sont pas clairs voire même explicites du moins si l’on se fie aux termes de référence. Ceux-‐ci confondent l’objectif de l’évaluation avec le jugement propre à celle-‐ci et l’utilisation des critères de l’OCDE-‐CAD. Sur la période couverte par la revue, il ne semble pas y avoir eu de processus systématique pour prendre en considération l’utilisation effective de l’évaluation, tant au niveau de son processus que de ses résultats15.
15 Voir encadré 2 sur la différence entre utilisation et mise en place d’un système de suivi.
Ian C Davies Conseil Inc.
46
9. Cadre de référence
À la demande de l’UEAD, ce chapitre décrit les principes fondamentaux d’une gestion publique saine et moderne sur lesquels se base la revue pour formuler ses recommandations. Sont donc expliqués dans une premier temps les principes qui sous-‐tendent, et s’appliquent à, la fonction d’évaluation, son organisation et ses systèmes, et dans un deuxième temps quelques éléments concernant l’évaluation proprement dite, sa méthodologie et sa gestion. 9.1 Fonction d’évaluation
9.1.1 Organisation La fonction d’évaluation dans les organisations publiques est généralement tributaire d’une mission de soutien à la redevabilité et l’appui au développement des connaissances. Ceci dit, dans la plupart des cas, l’objectif de redevabilité, c’est-‐à-‐dire de reddition des comptes, prime fortement sur celui de l’apprentissage. Et ce malgré le fait que la reddition de comptes soit une obligation de gestion et que la valeur ajoutée de l’évaluation par rapport à d’autres processus évaluatifs réside avant tout dans sa capacité à générer des connaissances, particulièrement en matière de politique publique. Cet état des choses s’explique en partie par l’implantation relativement récente de l’évaluation dans les gouvernements et dans les organisations publiques, par l’utilisation pour l’évaluation de professionnels qui n’ont pas toujours les connaissances appropriées ainsi que par un manque de clarté conceptuelle et donc organisationnelle quant à la valeur ajoutée de l’évaluation et sa spécificité. Au départ, l’administration publique établit une distinction claire entre les fonctions de gouvernance et de gestion et entre les rôles et responsabilités qui incombent à chacune relativement à l’élaboration des politiques publiques d’une part et à leur mise en œuvre d’autre part. Ainsi, le niveau de gouvernance remet au gestionnaire la responsabilité de la mise en œuvre de la politique publique par le biais d’un programme assorti d’une enveloppe budgétaire et, dans une administration publique moderne et une gestion dite « axée sur les résultats », sur base d’objectifs agréés et de résultats attendus explicites.
Ian C Davies Conseil Inc.
47
Le gestionnaire est donc tenu de gérer le programme -‐ ou l’instrument comme c’est le cas du FASEP et la RPE -‐ de façon aussi performante que possible et de rendre compte de sa gestion et de la performance du programme sur base des objectifs fixés et des résultats agréés16. Ce cadre de responsabilisation loge clairement à l’enseigne de la gestion l’établissement d’objectifs et de résultats visés ainsi que les processus évaluatifs de contrôle et de suivi nécessaires à toute gestion et particulièrement à une gestion dite « axée sur les résultats ». Ce sont des responsabilités et des fonctions propres à la gestion, qui ont pour raison d’être l’amélioration en continu de la performance du programme. La responsabilité de « reddition de comptes » quant à la performance du programme, ou concernant la mise en œuvre de l’instrument, font aussi partie des obligations de gestion. C’est dire que l’établissement de la « logique d’intervention », des objectifs et des résultats attendus, des cibles de performance opérationnelle, de processus de suivi et de rapport de performance sont des obligations du gestionnaire qui a la responsabilité de la mise en œuvre de la politique publique et du budget accordé à cette fin. Aussi les processus de contrôle, que celui-‐ci soit financier, physique, technique ou de gestion, ainsi que d’audit interne, qu’il soit financier, de conformité et de régularité ou de performance, sont des processus de type évaluatif qui font partie de la fonction de gestion et se cadrent sur son cycle. L’indépendance qui caractérise l’évaluation, qui lui confère une valeur intrinsèque et qui contribue à sa crédibilité, exige de la fonction d’évaluation qu’elle soit, entre autre, indépendante de la fonction de gestion qu’elle peut être appelée à évaluer.17 Si le gestionnaire peut recourir à l’auto-‐évaluation – qui est un type spécifique d’évaluation -‐ il ne peut en revanche pas « évaluer » son propre programme de manière indépendante tout comme l’évaluateur ne devrait pas se substituer au gestionnaire pour déterminer les résultats attendus, suivre, contrôler et rendre compte de la performance opérationnelle. C’est en cohérence avec ce cadre de référence que la fonction d’évaluation de la DG Trésor doit être conçue et organisée ainsi que présentée et expliquée de façon claire dans un document de politique de l’évaluation.
16 Ce « contrat » est sous-‐tendu par deux principes fondamentaux qui sont : à l’impossible nul n’est tenu et nul ne peut être tenu responsable pour des choses qui sont hors de son contrôle. 17 Evaluation Independence in Organizations – Robert Picciotto – Journal of MultiDisciplinary Evaluation – Volume 9 – Issue 20, 2013
Ian C Davies Conseil Inc.
48
9.1.2 Systèmes L’opérationnalisation de la fonction d’évaluation et sa gestion, du ressort de l’UEAD, reposent sur sa mission telle qu’établie par la politique d’évaluation de la DG Trésor et sur les mêmes principes de base d’une gestion publique moderne et «axée sur les résultats » décrits précédemment. Toute composante de l’organisation qui a une mission spécifique et un budget doit pouvoir utiliser un système de planification et de gestion stratégiques pour permettre l’alignement des décisions, des activités et de leurs résultats avec le mandat, l’orientation et les priorités de l’organisation, et ce en tenant compte des contextes internes et externes à l’organisation. Ce sont les systèmes de planification et de gestion stratégiques qui fournissent un cadre de référence dynamique pour que la programmation des évaluations soit en cohérence avec les priorités de l’organisation et les ressources disponibles. Découle aussi des systèmes stratégiques, le système de planification opérationnelle calé sur le cycle budgétaire qui permet d’établir de façon ciblée les résultats opérationnels attendus par rapport auxquels l’unité peut suivre, mesurer et rendre compte. Au vu de tout ce qui précède et particulièrement de la valeur que peut ajouter une fonction d’évaluation performante aux connaissances des politiques publiques et de leur mise en œuvre, un système de gestion et de communication de la connaissance est une composante critique et indispensable de la fonction d’évaluation. Finalement, le système de gestion des ressources humaines intègre les caractéristiques propres à la fonction d’évaluation et traduit celles-‐ci en compétences d’évaluation et de sa gestion. En particulier, compte tenu des développements rapides en théorie et pratique de l’évaluation ainsi que des avancées de la profession d’évaluation, le système de formation professionnelle continue est central à une gestion des ressources humaines adaptée.
Ian C Davies Conseil Inc.
49
9.2 Évaluation
La gestion de l’évaluation dans un modèle comme celui de l’UEAD où la conduite de l’évaluation est contractée à un agent externe, revient en grande partie à développer les termes de référence et l’appel d’offre, sélectionner un prestataire, organiser et coordonner le comité de pilotage, gérer la relation avec ce dernier en matière de méthodologie, de mise en œuvre, de communications et de paiement, et voir à s’occuper de la diffusion et de la capitalisation des résultats de l’évaluation.
9.2.1 Méthodologie Dans la mesure où l’expertise d’un évaluateur externe est recherchée, le développement de la méthodologie de l’évaluation devrait revenir à celui-‐ci. Il incombe au commanditaire d’établir clairement le but de l’évaluation, ses objectifs et questions principales, ainsi que ses choix en matière d’approche ou de toute tâche spécifique voulue s’il y a lieu. La méthodologie de l’évaluation comprend son design, le cadre de référence évaluatif, les questions spécifiques, le cadre d’analyse, les types et sources de données, les méthodes de collecte, les tests de fiabilité et de validité. Fait partie intégrante de l’aspect méthodologique de l’évaluation le contrôle de sa qualité par l’évaluateur. Il est du ressort de ce dernier d’établir, de présenter et de mettre en œuvre un système de contrôle de la qualité de l’évaluation sur base de standards et procédures clairs et explicites. Une méthodologie peut être appelée à être modifiée durant sa mise en œuvre afin de pouvoir mieux répondre aux questions posées et/ou s’adapter à des réalités contextuelles et de ressources.
9.2.2 Gouvernance La gouvernance de l’évaluation sert généralement à soutenir son orientation, c’est-‐à-‐dire voir à ce qu’elle garde le cap sur son objectif principal, et à assurer l’indépendance de l’évaluation en protégeant l’autonomie de l’évaluateur dans son jugement évaluatif.18 La fonction de gouvernance dans le secteur public représente et défend l’intérêt public, c’est-‐à-‐dire le droit du citoyen à une information valide et claire quant à la valeur des interventions payées par ses taxes.
18 Evaluation Independence in Organizations – Robert Picciotto – Journal of MultiDisciplinary Evaluation – Volume 9 – Issue 20, 2013
Ian C Davies Conseil Inc.
50
Afin de respecter la distinction utile entre la fonction de gouvernance et celle de gestion, il est recommandé de former un groupe restreint constitué de personnes avec une bonne connaissance de l’évaluation et qui n’ont pas d’intérêts dans, ou de liens avec, les responsables de l’intervention qui est évaluée ni les instances politiques qui décident de sa réalisation et de son financement. Dans certaines juridictions le citoyen fait partie du groupe de gouvernance de l’évaluation. Le groupe constitué pour exercer un rôle de gouvernance est communément appelé comité de pilotage. Il reçoit du commanditaire de l’évaluation toutes les informations requises pour qu’il puisse remplir ses fonctions de supervision de l’orientation de l’évaluation et de protection de son indépendance, et ce dans l’intérêt public. Un comité de pilotage peut s’adjoindre une expertise en évaluation pour l’aider à remplir correctement son mandat.
9.2.3 Gestion La gestion par le commanditaire de la relation contractuelle avec l’évaluateur externe inclut les responsabilités d’approbation du plan de l’évaluation, ou de la note de structuration, des rapports intermédiaires et finaux, du plan de communication ainsi que de tout changement significatif à la démarche envisagée et agréée pour l’évaluation. Fait aussi partie des responsabilités de gestion la mise en place d’un système approprié d’assurance qualité sur base d’une expertise de haut niveau en évaluation et idéalement externe. Cette gestion constitue de facto la « maitrise d’ouvrage ». Il ne faut donc pas confondre la gestion du contrat, avec la gestion par l’évaluateur prestataire du processus de l’évaluation. En accord avec les principes de base énoncés plus avant il convient d’établir et de respecter une distinction claire entre les rôles et les responsabilités du gestionnaire de la relation avec l’évaluateur, soit l’UEAD, et les autres contributeurs potentiels à l’évaluation comme par exemple les bénéficiaires, les parties prenantes, les experts techniques, les comités de pilotage, les groupes de référence, etc. En particulier les dispositions prises pour gérer d’une part et pour gouverner d’autre part l’évaluation, devraient être en cohérence avec les rôles et responsabilités propres à chaque fonction. Ce point est particulièrement important pour bien distinguer le rôle du comité de pilotage de celui du gestionnaire et ainsi éviter que le premier s’immisce dans les prérogatives et responsabilités du deuxième.
Ian C Davies Conseil Inc.
51
10. Recommandations
Les recommandations présentées ci-‐après sont basées non seulement sur les constats et les conclusions de la revue, qui ont été validés par le comité de pilotage, mais aussi sur l’expertise de l’équipe de revue en matière de gestion publique moderne et particulièrement de la fonction d’évaluation dans l’organisation publique. Les recommandations portent d’une part sur la fonction d’évaluation de la DG Trésor et l’organisation et les systèmes d’évaluation de l’UEAD, et d’autre part sur le processus d’évaluation de l’UEAD en tant que tel. Dans les deux cas les recommandations sont formulées à un niveau qui requiert leur opérationnalisation par la DG Trésor et par l’UEAD afin que leur mise en œuvre soit réalisable compte tenu du contexte qui leur est propre et des ressources disponibles. À cette fin un atelier réunissant l’UEAD ainsi que les acteurs clé de la DG Trésor sera organisé et animé par l’équipe de revue. 10.1 Recommandations pour la fonction d’évaluation
10.1.1 Politique de l’évaluation La DG Trésor et l’UEAD devraient revoir la politique de l’évaluation et la mettre à jour, en concertation avec les parties prenantes internes comme Fininter 2. Cette révision pourrait se faire en deux étapes : premièrement la politique d’évaluation des interventions gérées par la DG Trésor et deuxièmement la contribution de la DG Trésor à l’évaluation de l’APD française. Cette dernière peut se faire par le truchement de concertations régulières avec le MAE et l’AFD sur ces questions en plus de la participation de la DG Trésor au comité des évaluations de l’AFD. La politique devrait expliquer la raison d’être de l’évaluation à la DG Trésor et son orientation, sa définition et sa distinction des autres processus évaluatifs de la DG Trésor, les principes et standards sur lesquels elle se base, les responsabilités de l’UEAD, le processus de programmation, les approches méthodologiques et les types d’évaluation, la gestion de l’évaluation, les mécanismes d’assurance qualité, la communication et la capitalisation des résultats, le pilotage et la participation des parties prenantes. En particulier, et dépendamment de l’orientation que voudrait donner la DG Trésor à la fonction d’évaluation, le renouveau de la politique pourrait offrir l’occasion de revoir le positionnement de l’unité d’évaluation dans l’organigramme de la DG Trésor afin de maximiser son indépendance des services opérationnels et sa contribution à l’apprentissage et à la redevabilité.
Ian C Davies Conseil Inc.
52
10.1.2 Programmation La programmation des évaluations devrait résulter de l’intersection de la politique d’évaluation et du processus de planification et de gestion stratégiques de l’UEAD. La programmation devrait être ancrée dans des critères de choix explicites et agréés au niveau de la DG Trésor. La programmation devrait être glissante et permettre l’intégration de divers types d’évaluations à l’intérieur d’un même programme. Par exemple évaluation ex-‐ante, intermédiaire, ex-‐post, thématique, sectorielle, de projets, de programme ou d’instrument, de politique, conjointe, méta évaluation, synthèse d’évaluations, évaluation brève, etc.
10.1.3 Niveau de compétence L’UEAD devrait se doter d’un niveau de compétence professionnelle en évaluation suffisant pour pouvoir dresser, maintenir à jour et utiliser l’éventail sans cesse croissant des approches, méthodologies et pratiques de la discipline de l’évaluation. Font aussi partie des compétences requises celles qui concernent la commande et la gestion de l’évaluation. Le niveau de compétence devrait être alimenté et soutenu par un programme de formation professionnelle continue pour l’UEAD. L’UEAD devrait pouvoir s’adjoindre au besoin une expertise externe de haut calibre en évaluation afin d’assurer le niveau de compétence requis pour des activités spécialisées.
10.1.4 Assurance qualité L’UEAD devrait mettre en place un système d’assurance qualité de ses évaluations en accord avec les principes et standards qu’elle aura définis et rendus explicites dans la politique de l’évaluation de la DG Trésor. L’exercice de l’assurance qualité se fait habituellement par le recours à une expertise externe de haut niveau et accréditée en évaluation, c’est-‐à-‐dire maitrisant la théorie de la discipline de l’évaluation et sa pratique professionnelle. L’engagement et la rémunération d’un expert externe pour réaliser l’assurance qualité des évaluations contractées par l’UEAD permet non seulement d’obtenir l’assurance que le processus de l’évaluation et de ses produits sont conformes aux normes de qualité établies et aux attentes de l’UEAD mais aussi de contribuer à la formation professionnelle des membres de l’UEAD.
Ian C Davies Conseil Inc.
53
L’assurance qualité se distingue du contrôle de la qualité dans la mesure ou le second est une composante essentielle de la gestion de l’évaluation par l’évaluateur. Le contrôle de la qualité est un processus qui consiste à vérifier à chaque étape de la conduite de l’évaluation que les standards de qualité agréés avec l’UEAD, comme par exemple ceux de l’OCDE-‐CAD19, sont respectés et que les objectifs opérationnels sont atteints afin d’apporter au fur et à mesure les correctifs et ajustements nécessaire s’il y a lieu.
10.1.5 Participation Les modalités de participation des parties prenantes méritent d’être clairement définies et leurs procédures établies. En particulier les buts, rôles et responsabilités devraient être bien différenciés s’il y a lieu, par exemple pour le pilotage, la référence, l’expertise et l’implication des parties prenantes. En particulier ces distinctions devraient prendre en compte la nécessité d’encadrer les processus de participation pour sauvegarder l’autonomie du jugement évaluatif et minimiser l’interférence des parties prenantes dans celui-‐ci.
10.1.6 Communication externe L’UEAD devrait se munir d’une stratégie de communication externe de ses activités et de ses évaluations. Il s’agit, entre autre, de distinguer entre la communication, ses divers contenus et processus, et la publication du rapport d’évaluation qui elle n’en constitue qu’un élément. Élément par ailleurs limité à la seule publication du rapport de synthèse afin de protéger la confidentialité de renseignement commerciaux dans le cas des évaluations RPE et FASEP. Divers moyens de communication peuvent être employés y inclus en temps réel par le truchement par exemple des médias électroniques et des réseaux sociaux. La communication autour de l’évaluation pourrait annoncer par exemple la programmation, le démarrage d’une évaluation, son progrès et ses résultats, l’attribution d’un marché, la composition d’un comité de pilotage, etc.
10.1.7 Approche focalisée sur l’utilisation L’UEAD devrait formellement adopter une approche focalisée sur l’utilisation de l’évaluation et se doter d’outils d’analyse20, ou du moins d’outils de planification21 qui soutiennent cette démarche.
19 http://www.oecd.org/dac/evaluation/dcdndep/44920384.pdf 20 Voir p.ex. « Utilisation focused evaluation » (UFE) de M.Q. Patton : UFE checklist, stakeholder analysis, communication planning, etc. 21 Par exemple l’analyse des parties prenantes (stakeholder analysis), la grille d’utilisation de l’évaluation (utilisation focused checklist)
Ian C Davies Conseil Inc.
54
Une approche basée sur l’utilisation consiste essentiellement à se poser la question de qui précisément va utiliser les résultats de l’évaluation, pourquoi, comment et quand, et ce avant d’entreprendre une évaluation. Ce type d’approche peut aussi bien informer l’appréciation de l’évaluabilité d’une évaluation au stade par exemple de la programmation (voir ci-‐après) qu’au stade de la planification d’une évaluation.
10.1.8 Comité consultatif externe La DG Trésor devait considérer la possibilité de créer un comité externe d’experts en évaluation22 qui aurait pour but de la conseiller ainsi que son unité d’évaluation sur l’orientation stratégique de la fonction, sa politique ainsi que sa programmation. Un tel comité pourrait se réunir une fois par an. Un tel comité peut aussi contribuer à la crédibilité et au profil professionnel de l’UEAD tant à l’intérieur de la DG Trésor qu’à l’extérieur y inclus dans les milieux professionnels de l’évaluation. 10.2 Recommandations pour l’évaluation
10.2.1 Évaluabilité L’évaluabilité des interventions qui pourraient faire l’objet d’une évaluation devrait être prise en compte à l’étape de la programmation. Les buts d’une appréciation systématique de l’évaluabilité d’un projet sont :
• « d’examiner à l’avance l’activité projetée afin de vérifier si ses objectifs sont définis de façon adéquate et si les résultats sont vérifiables » (définition OCDE-‐CAD) ;
• de façon pratique d’apprécier la disponibilité de données pour pouvoir faire une évaluation ainsi que les systèmes qui les produisent ;
• d’apprécier l’utilité de l’évaluation préconisée.
« Les résultats d’une appréciation de l’évaluabilité devraient avoir des conséquences pour le design d’une évaluation, pour le design d’un cadre de suivi de la performance du projet ou pour le design du projet lui-‐même. Il ne faut pas confondre l’appréciation de l’évaluabilité avec l’évaluation elle-‐même qui devrait fournir des jugements évaluatifs sur les résultats du projet.
22 Il est à noter que les personnes ressources et compétentes en la matière ne se trouvent pas nécessairement en France et qu’il est possible d’avoir recours à des experts internationaux.
Ian C Davies Conseil Inc.
55
Beaucoup de problèmes d’évaluabilité ont leur origine dans la faiblesse du design du projet. Quelques-‐uns de ceux-‐ci peuvent être adressés par l’engagement de la fonction d’évaluation au stade du design du projet, par des contrôles d’évaluabilité ou par d’autres moyens. Toutefois des problèmes liés au design du projet émergent aussi, souvent, lors de sa mise en œuvre. Une appréciation de l’évaluabilité durant la mise en œuvre d’un projet devrait porter attention au design du projet et il faut reconnaître que ceci peut conduire à retravailler nécessairement la logique de l’intervention. ».23
10.2.2 Termes de référence Les termes de référence devraient être adaptés au cas par cas selon l’objet qui est évalué et les objectifs spécifiques de l’évaluation. En particulier les termes de référence devraient tenir compte des priorités relatives des projets FASEP et RPE, soient des priorités politique, diplomatique, économique et de développement. Dans tous les cas, et vu les différences fondamentales entre projets RPE et études FASEP, ainsi qu’entre les projets eux-‐mêmes, y inclus la variabilité des objectifs principaux de ces projets, les termes de référence doivent être uniques et spécifiques à chaque évaluation. Les termes de référence peuvent proposer une approche méthodologique mais devraient donner suffisamment de flexibilité à l’évaluateur pour développer et proposer une méthodologie qui soit la mieux en mesure de répondre aux objectifs et aux questions évaluatives tout en tenant compte des ressources et du temps disponibles ainsi que des contextes. L’approche évaluative et la méthodologie sont en effet deux choses distinctes mais liées ; le choix de l’approche ayant une incidence sur le choix de méthodologie. Il faut donc être conscient des implications de ces choix et il n’est pas clair que cela soit le cas lorsque l’on applique une seule approche évaluative qui est celle de l’OCDE-‐CAD. Les termes de référence devraient indiquer clairement ce en quoi constitue une méthodologie24, et faire une distinction claire entre les attentes en matière de méthodologie et celles en matière de conduite de l’évaluation par l’évaluateur. Peuvent être inclus dans les attentes méthodologiques l’analyse des parties prenantes, l’utilisation d’une grille d’utilisation ainsi que les processus participatifs.
23 Planning evaluability assessments. R. Davies. DFID working paper 40. October 2013. 24 Voir 9.3.1 : La méthodologie de l’évaluation comprend son design, le cadre de référence évaluatif, les questions spécifiques, le cadre d’analyse, les types et sources de données, les méthodes de collecte, les tests de fiabilité et de validité.
Ian C Davies Conseil Inc.
56
La conduite de l’évaluation par l’évaluateur comprend, entre autre, le système de contrôle de qualité, la tenue des dossiers et l’archivage, le budget, l’utilisation des ressources humaines et le plan de communication durant l’évaluation.
10.2.3 Comité de pilotage Dans la mesure du possible le comité de pilotage ne devrait pas remplir des fonctions de gestion telles que l’approbation de la sélection du consultant externe, de la note de structuration et du rapport final ainsi que l’appréciation d’ensemble des travaux du consultant.25 En particulier le comité de pilotage ne devrait pas chercher à remplir une fonction d’assurance qualité, celle-‐ci étant remplie préférablement par un expert de haut niveau en évaluation sélectionné par l’UEAD. 26
10.2.4 Grille d’appréciation La grille d’appréciation des travaux des consultants devrait être revue afin que soient distinguées les appréciations qui relèvent de la « maitrise d’ouvrage » de l’évaluation qui devrait être assurée par l’UEAD (la responsabilité de gestion) et celles qui pourraient être rendues par le comité de pilotage sur base de sa connaissance de l’évaluation, de deux ou trois rencontres et rapports, et de son rôle de pilotage.
25 Pour une distinction entre comité de pilotage et groupe de référence voir page 16 Encadré 1 : Les fonctions de « groupe de référence » et de « comité de pilotage » 26 Voir 10.1.4
Ian C Davies Conseil Inc.
57
Annexe 1 - Grille d'appréciation des rapports d'évaluation
Titre: Secteur: Zone d'étude: Instrument: Prestataire: Auteur(s) du rapport: Pagination:
Le rapport d'évaluation décrit: Observations (A)
1. Finalité et objectifs et de l'évaluation: 1.1 La raison de l'évaluation et son utilisation préconisée
1.2 Description du projet évalué: contexte, objectif, justification (ou logique), budget, déroulement et période (étapes), résultats
1.3 Les objectifs ou les questions spécifiques de l'évaluation
2. Méthodologie de l'évaluation: 2.1 Les critères de cette évaluation (par exemple efficacité, efficience, cohérence, etc. -‐ voir termes de référence)
2.2 Les méthodes de collecte des données, types et sources
2.3 Le cadre analytique (comment sont analysées les données recueillies)
3. Résultats: 3.1 Les constats principaux de l'évaluation (les faits probants -‐ "findings")
3.2 La discussion des constats de l'évaluation (l'analyse)
3.3 Les conclusions de l'évaluation 3.4 Les recommandations 4. Le rapport d'évaluation: 4.1 Donne des informations sur la mise en œuvre de l'évaluation (exemple comité technique, imprévus, etc.)
4.2 Est clair, lisible et accessible 4.3 Est rendu publique APPRÉCIATION D'ENSEMBLE
Elément(s) absent(s) des rapports Présence très succincte d'informations, très insuffisante pour éclairer le lecteur du rapport.
Présence partielle d'éléments de réponse, donnant certaines informations cependant incomplètes.
Elément(s) clairement et suffisamment développé(s)
Ian C Davies Conseil Inc.
58
Annexe 2 – Liste des entretiens
Organisation Nom Fonction, Service 1 DG Trésor GAUDIN Pierre Responsable, Pôle Commerce
Extérieur
2 DG Trésor LEROY-‐THEMZE Claude
Responsable de la Revue des évaluations de projets d’aide liée RPE et FASEP 2004-‐2012 – Directrice, Unité des Activités d’Aide au Développement 2011-‐2014
3 DG Trésor LEBASTARD Dominique
Ex-‐responsable du SER à Pretoria
4 NATIXIS LEMPERIERE Bernard
Directeur Adjoint des Activités Institutionnelles
5 Cour des Comptes
HAYEZ Philippe Conseiller maître / Coordonnateur du rapport de la Cour des Comptes sur l'APD Française
6 Bureau des Opérations Internationales (BOI)
NECH Didier Responsable, Bureau des Opérations Internationales (BOI) / Prestataire pour 2 évaluations RPE-‐FASEP sur la période 2004-‐2012.
7 Ernst & Young BERTRAND Arnauld Responsable, Secteur public France, Luxembourg, Maghreb – Prestataire pour 3 évaluations RPE-‐FASEP sur la période 2004-‐2012.
8 Ernst & Young BRUNAGEL Marie CASTELLA Christina
Consultantes – Evaluation RPE Fournitures d'équipements, de machines-‐outils et d'assistance technique au Vietnam (2009)
9 Frontier Economics
CHARON Anne-‐Christine
Consultante – Évaluation d’une grappe de projets à volet MDP/MOC financés sur le FASEP-‐Études (2011)
10 DG Trésor REQUIN Anthony Directeur, Service des Activités Multilatérales et du Développement
11 DG Trésor BOBIN Shanti Chef du bureau Aide au Développement (Multifin5)
12 DG Trésor GADY-‐LAUMONIER Mauricette
Directrice, Unité des Activités d’Aide au Développement -‐ depuis 2014.
13 DG Trésor MAURY Jean-‐Emmanuel
Inspection Générale de la DG Trésor
14 DG Trésor BACONIN Jérôme Conseiller du DG, Affaires Internationales
15 CGEFI BELET Gérard Contrôle Général Economique et Financier
16 IGF COPPINGER Nathalie
IGF -‐ Questions multilatérales et développement
17 Frontier Economics
L’HOSTIS Catherine Consultante – Évaluation d’une grappe de projets à volet MDP/MOC financés sur le FASEP-‐Études (2011)
Ian C Davies Conseil Inc.
59
18 DG Trésor GOSSET Thomas Ex. Chef du bureau Aide-‐Projet (Fininter2)
19 DG Trésor MAILLARD Frédéric Chef du bureau Aide-‐Projet (Fininter2)
20 DG Trésor CHERVALIER Benoît Directeur, Unité des Activités d’Aide au Développement – 2004-‐ 2007.
21 Cabinet SCE COSTANZO Jérôme Consultant -‐ Evaluation rétrospective de projets de reconstruction post crise dans le cadre des instruments RPE et FASEP -‐ Sri Lanka, Indonésie, Chine (2011)
22 AFD BOUZIGES-‐ESCHMANN Stéphanie
Adjointe, Service des relations extérieures (entreprises, collectivités)