Échecs et apprentissages liés à l’évaluation de la gestion du programme MeC

Cette note a été rédigée dans le but de présenter un témoignage lors d’un atelier visant à valoriser les apprentissages issus d’actions dans Montréal en commun qui ne se sont pas déroulées comme on le pensait! L'objectif était de présenter les objectifs d'une démarche, les grandes lignes de sa réalisation et les éléments qui n'ont pas fonctionné comme espéré, pour ensuite collectivement en tirer des leçons. 

Qu’est-ce qu’on voulait faire?

  • Répondre à la question suivante: Quels sont les apprentissages relatifs à la gestion d’un programme d’innovation au sein d’une municipalité comme Montréal en commun? puis diffuser ces apprentissages.
  • Notre plan de match pour y parvenir:
    • Structurer une grille d’entrevue abordant divers thèmes pertinents (compréhension du programme, capacité d’adaptation, gouvernance, apprentissages, etc.)
    • Mener des entrevues d’une heure avec des personnes ayant joué un rôle clé dans le programme (Infracan - Ville de Montréal - Partenaires porteurs de projets).
    • Grâce à l’analyse, tirer des constats, c’est-à-dire des réponses et observations qui reviennent plusieurs fois dans les entrevues.
    • Convertir, de manière participative, ces constats en apprentissages qui puissent être diffusés.
    • Rendre disponible ces apprentissages et les diffuser auprès de publics pertinents.

Qu’est-ce qu’on a fait?

L’ensemble du processus a été mené sur deux ans. Ce n’est certainement pas un échec sur toute la ligne et on peut souligner plusieurs réalisations:

  • Une vingtaine d’entrevues ont été menées (24 répondants au total);
  • environ 5 ateliers d’analyse ont été menés avec l’équipe du LIUM;
  • de légères améliorations au programme MeC ont été faites en 2024 sur la base des résultats;
  • Il existe une belle note Praxis qui résume les apprentissages du programme;
  • Des employés du LIUM et du QIR ont participé à sa rédaction, ce qui nous laisse croire que les apprentissages ont été intégrés.
  • Des contenus liés à cette note ont également été intégrés dans la boîte à outil sur l’innovation du LIUM et seront présentés lors de l’événement de clôture.

Qu’est-ce qui n’est pas allé comme prévu ?

Les éléments suivants ont cependant constitué des difficultés qui empêchent la démarche d’atteindre son plein potentiel:

  • Les constats issus d’une première ronde d’entrevues ont été présentés à l’équipe du LIUM en février 2024. Ils contenaient certaines observations et citations parfois très négatives et critiques à l’égard de la conduite du programme jusque là, et peu d’emphase sur les bons coups. Ils ne permettaient pas, à cette étape du processus, à l'équipe du LIUM de dégager des apprentissages. Cela a créé un choc que nous avions mal anticipé. Le fait de ne pas suffisamment mettre en valeur les bons coups a pu donner l'impression qu'il n'y avait aucune avancée.
    • Avec le recul, on peut donc dire que notre erreur a été, entre autres, de faire une mauvaise lecture de l’environnement de notre client, celui-ci faisant face à une pression toujours grandissante de générer et démontrer des résultats positifs.
  • Au cours de l’été 2024, l’équipe du LIUM a questionné notre démarche: des doutes ont été soulevés concernant la rigueur du processus: bris de l’anonymat des répondants (vu le petit échantillonage et les citations), questions trop ouvertes qui font ressortir le négatif, impression que l’ensemble du bilan était négatif alors qu’il y avait aussi, selon eux, plusieurs constats positifs. Une nouvelle grille d’entretien, beaucoup plus courte, a été travaillée avec l’équipe du LIUM pour la ronde 2 afin de laisser de côté les éléments historiques et recenser les apports positifs du programme. De nouveaux répondants ont également été suggérés permettant d’aller dans ce sens.
    • Au final, des ajustements ont été faits, permettant à la démarche de continuer, mais il est tout de même possible de se demander si les multiples aller-retours que cela a requis démontrent que le lien de confiance avait été affaibli.
  • Soulignons qu’il y a eu une longue période entre la présentation des premiers constats au LIUM (février à mai 2024) et la conversion de ces constats en apprentissages partageables (janvier à avril 2025).
    • Ce délai a pu créer de l’incertitude quant à l’utilité de la démarche, son point d’arrivée: à quoi bon dresser des constats sur tout ce est arrivé dans le passé? En quoi est-ce que ça aiderait d’autre monde, dans le futur, à prendre de meilleures décisions?
    • Ce délai nous laisse également croire que notre accompagnement du LIUM dans le passage des constats aux apprentissages n'était pas optimal.
  • Aujourd’hui, les apprentissages découlant de la démarche ont été formalisés dans un texte et diffusés auprès d’un noyau de personnes pertinentes (employés LIUM,partenaires MeC et quelques employé-es de la Ville de Montréal). Ils n’ont pas rejoint à ce jour un public plus large composé par exemple des administrations intéressées par le concept de programme d’innovation (en commençant par le gouvernement fédéral, financeur de la démarche) ou des acteurs du milieu de la recherche.

Qu’est-ce qu’on retient?

  • Lorsqu’on évalue un programme, il importe de se doter d’une méthodologie rigoureuse dont les résultats seront jugés légitimes par toutes les parties prenantes impliquées.
    • Cela implique de formuler des questions qui permettront de faire ressortir autant des éléments positifs que négatifs.
  • Lorsqu’on a des éléments critiques à amener, il faut bien préparer le client qui va les recevoir en rappelant les principes et objectifs de l’évaluation. Il importe également de bien lire l’environnement du client, le système dans lequel il évolue, les pressions auxquelles il pourrait être soumis, puis formuler une démarche adaptée à ce contexte.
    • Le LIUM évolue dans le contexte organisationnel de la ville de Montréal qui, comme de nombreuses autres administrations publiques, est souvent sensibles aux risques et agit principalement dans un souci de générer et montrer des résultats positifs pour leurs citoyens Plus le programme avançait et les élections approchaient, plus cette pression semblait être forte, mais nous avons tardé à ajuster notre démarche en conséquence.
  • Avant de s’engager dans un projet de captation et transfert d’apprentissage, il est important de bien identifier ses publics cibles, et, encore mieux, de s’associer à une communauté d’utilisateurs potentiels des informations qui seront ainsi générées!
    • Il a longtemps été question de faire bénéficier les autres services de la Ville des apprentissages ainsi générés, mais cette piste n’a pas progressé comme espérée.
    • Un certain temps a aussi été consacré à situer cette dimension de l’évaluation dans un domaine de recherche pertinent (la gestion de l’innovation), mais nos contacts avec des chercheurs sur ce sujet n’ont pas débouché.
  • En conclusion, deux leçons sur le notion d’apprentissage en général:
    • La difficulté d’apprendre de ce qu’on a pas vécu soi-même. La démarche d’évaluation des apprentissages liés à la gestion du programme s’appuie sur des entrevues avec des personnes qui ont contribué significativement au programme à partir de 2018. Lorsque l’analyse des constats qui en découlent a été menée en 2025, aucune personne présente à l’étape de candidature puis du démarrage (2018 à 2021) n’était encore en poste au LIUM. Il est difficile d’accorder beaucoup de poids à des propos qui nous sont rapportés par rapport à ce qu’on a personnellement vécu.
    • La difficulté de prendre du recul sur ce qu’on est en train de vivre et d'en tirer des apprentissages en temps réel. Il est plus facile, lorsque les événements sont terminés, et dans un contexte adéquat comme celui-ci, de mener un tel exercice. 

noteNotes liées

paddingCarnet qui inclut cette note

Évaluation de Montréal en commun
file_copy 29 notes
person
Intégré par Gabriel Salathé-Beaulieu, le 14 novembre 2025 10:31

grid_viewBase de connaissances reliée

Auteur·trices de note

smsContacter les auteur·trice(s)

Groupe lié

Connaître Montréal en commun

Profil Passerelles

Carnets Praxis

forumDiscuter de la note

Publication

14 novembre 2025

Modification

26 novembre 2025 14:02

Historique des modifications

Visibilité

lock_open public

Pour citer cette note

Carmen Gabriel-Chouinard, Chantal Grandchamp, Gabriel Salathé-Beaulieu, Équipe Tiess, Laboratoire d'innovation urbaine de Montréal. (2025). Échecs et apprentissages liés à l’évaluation de la gestion du programme MeC. Praxis (consulté le 16 janvier 2026), https://praxis.encommun.io/n/AjGFQIz6uzJACmQt3ZQBvUboZ7Y/.

shareCopier