1 of 62

L

INDICE DE QUALITÉ DÉMOCRATIQUE

Un référentiel pour évaluer

les pratiques démocratiques

www.democratieouverte.org

2 of 62

QUATRE OBJECTIFS POUR CHANGER D'ÉCHELLE

Diminuer le democracy bashing: changer la vision et le vécu de la démocratie, souvent limitée à l’action des élus et des partis politiques, par un questionnement créant une dynamique d’empouvoirement citoyen.

Nourrir une communité d’apprentissage française et globale qui partage diverses expériences, innovations, analyses et conseils

Permettre d’éviter le civic-washing et de comprendre les éléments communs aux pratiques de qualité

Donner à tous la possibilité d’évaluer et d’améliorer la démocratie locale, en comparant les retours des collectivités, citoyens, professionnels et innovateurs démocratiques

3 of 62

UN NOUVEAU THERMOMÈTRE DE LA DEMOCRATIE

Coconstruire un référentiel de qualité comme commun ouvert à affiner au fil des années.

1

2

3

4

Malaise

Petite forme

Bonne forme

Energie au top

Décision 100% par les élus

Pouvoir pyramidal au sein de la collectivité

Boîte noire

Faible coopération entre acteurs

Faible confiance dans les représentants, faible cohésion et coopération.

Processus d’information descendants, consultations et expérience de concertations avec décisions des élus

Transparence réglementaire

Tissu associatif limité

Cohésion et coopération multi-acteurs moyennes.

Démarches d’information à double sens et participatives

Initiatives pour améliorer la transparence

Soutien au tissu associatif et aux projets citoyens

Bonne cohésion et coopération multi-acteurs.

Processus participatifs récurrents, voire institutionalisés

Expériences de codécision et d’initiatives citoyennes

Grande transparence

Fort dynamisme associatif

Grande cohésion et coopération multi-acteurs

Simple exemple purement théorique à ce stade :

4 of 62

VALEUR AJOUTÉE

État de la démocratie locale dans toutes ses dimensions

  • Exercice du mandat représentatif
  • Enjeux de transparence
  • Participation citoyenne
  • Coopération entre acteurs (alliances, initiatives citoyennes)

Méthodologie robuste

  • 3 ans de codesign
  • Cartographie de l’existant
  • Expertise multidisciplinaire, multi-acteurs
  • Phase de test
  • Revue par les paires
  • Amélioration en phase pionnière

Processus de codesign

  • Comité d’orientation
  • Territoires pilotes, élus, agents et habitants
  • Partenaires de l’écosystème

Objectifs forts d’inclusion

  • Définition du cadre et des moyens d’une évaluation participative
  • Plateforme en ligne gratuite, adaptée à l’utilisateur, didactique et interactive
  • Codesign avec les utilisateurs
  • Experts des enjeux d’inclusion

5 of 62

LES UTILISATEURS

LES COLLECTIVITÉS LOCALES

  • Évaluer leurs démarches avec les citoyens
  • Identifier et prioriser des axes d’amélioration
  • Valoriser leurs progrès

LES HABITANTS

  • Évaluer les pratiques de leur collectivité
  • Comparer avec d’autres collectivités
  • Proposer des améliorations
  • Lancer des initiatives

PROFESIONNELS DE L’INNOVATION DÉMOCRATIQUE

  • Évaluer les pratiques
  • Nourrir une méthode partagée
  • Etudier les difficultés et les progrès
  • Accompagner les améliorations

6 of 62

UNE PLATEFORME, TROIS FONCTIONNALITÉS

EVALUATION MULTI-ACTEURS

ESPACE COLLABORATIF

OUTIL D’AMELIORATION

Interface adaptée à l’utilisateur

Support méthodologique à chaque étape (vidéo, tutos)

Eclairages et graphiques explicatifs

Validation par la participation citoyenne

Comparaison des retours des élus, agents, citoyens, professionnels

Suggestion d’axes d’amélioration prioritaires

Conseils sur les étapes clefs

Lien vers des outils pertinents

Mise en réseau

Echange d’expériences et de conseils

Forums thématiques

Analyse des ratés et des succès sur la base du volontariat

Une plateforme ouverte, gratuite, interactive et collaborative

7 of 62

IMPACTS ATTENDUS AU NIVEAU DES TERRITOIRES

Acteurs plus engagés

et solidaires

Plus grand nombre d’initiatives et projets citoyens

Meilleure collaboration entre acteurs

Plus de participation à la vie démocratique

Meilleure participation aux élections et instances participatives et délibératives

Gouvernance ouverte

Expériences de codécision

Territoires innovants et attractifs

Amélioration du bien-être

Transition écologique

Environnement favorable aux projets

8 of 62

TROIS ANS POUR DEVENIR UN INDICE DE RÉFÉRENCE

2021 2022 2023

Co-construction

multi-acteurs

Design de l’Indice

Utilisation de l’Indice

Espace de collaboration

Lancement de la 1ère version

Amélioration grâce aux retours des utilisateurs

Tests dans 6 territoires pilotes

Évaluations pionnières

dans 25 - 30 territoires

en France, en Europe, voire au-delà

1000 territoires utilisateurs en France, en Europe, voire au-delà

Débat dans l’écosystème des questions démocratiques

Test de la plateforme et son espace collaboratif avec 30-40 territoires

Amélioration des fonctions et ressources de la plateforme

9 of 62

Préparation de la phase pionnière

6 territoires jumeaux des pilotes en Europe

DO - DemSoc

5 territoires en projet partagé

ANCT

Au moins 5 villes du réseau des territoires DO

(15 – Châtel et Gennevilliers)

6 territoires pilotes en phase pionnière

Do - DemSoc

Autres territoires volontaires

En FR & UE (URBACT)

Discussion en cours

Eté 2021 -

Identification avec DemSoc juillet 2021 -

Proposition de l’ANCT

Reprise discussion sept. 2021

A étudier avec Armel & Alexis automne + Journées du réseau

Exploration avec partenaires

10 of 62

L

ENSEIGNEMENTS DE LA CONSULTATION

www.democratieouverte.org

11 of 62

CONSULTATION

Février – Avril 2021

Quand?

Pourquoi?

Qui ?

Préciser les objectifs et le cadrage du projet

70 acteurs : chercheurs et experts de l’évaluation, élus et agents du réseaux, partenaires de l’écosystème, représentants d’institutions nationales et internationales

1. Définition des questions clefs en séminaire DO - Indice

2. Interviews et synthèse

3. Discussion sur les principaux enseignements en Comité d’orientation et en COPIL

Comment ?

12 of 62

  • Nouveau consensus sur la lutte contre le civic washing
  • Démarche de labellisation jugée non nécessaire ou prématurée
  • Evaluation multi acteurs: seuil de participation citoyenne; formulation différente possible selon les acteurs
  • Réponse à différents besoins selon les collectivités: diagnostic de départ; identification d’axes d’amélioration; objectivation des pratiques
  • Prise en compte de l’impact des démarches par rapport aux coûts engagés (ex: pertinence de la retransmission des conseils municipaux, coûteuse et peu visionnée)

OBJECTIF DE L’ÉVALUATION

13 of 62

  • Consensus sur la pertinence des enjeux considérés: transparence, représentation, participation, collaboration

  • Convergence sur l’importance d’analyser l’espace investi par les citoyens (ex: tissu associatif) et les collaborations entre différents acteurs (publics, privés, corps intermédiaires, citoyens), aujourd’hui peu étudiés

PÉRIMÈTRE DE L’ÉVALUATION

14 of 62

Les ingrédients d’une démocratie réussie diffèrent selon les territoires.

“Il y a d’excellents gâteaux au chocolat faits avec de la courgette.”

Comment ajuster l’indice au territoire? Pistes:

      • Questionnaire initial pour tout utilisateur de la plateforme
              • Atelier de réflexion collective organisé au niveau local

CONTEXTUALISATION DE L’ÉVALUATION

15 of 62

Accord sur l’absence de notation globale

      • Difficile pondération entre piliers (critères souvent essentiels pour la transparence - souhaitables pour la collaboration)
      • Mise en concurrence entre territoires sur une note non souhaitée�

NIVEAU D’AGRÉGATION DE L’INDICE

Score par critère et par pilier

      • Reflet d’ambitions différentes
      • Comparabilité entre territoires

16 of 62

L’INDICE COMME INSTRUMENT DE L’ACTION PUBLIQUE

Organisation de l’évaluation le territoire :

Une démarche démocratique et transformative�

  • Démocratisation de l’accès à la réflexion sur l’innovation démocratique
  • Empouvoirement des participants

�Exemples d’enjeux importants:

  • Options pour lancer une démarche territoriale d’évaluation
  • Problématiques fortes d’accès et d’inclusion (aussi pour le design plateforme)
  • Enjeux des suites à donner à l’évaluation

17 of 62

  • Intégration transversale de critères sur l’inclusion dans les différents piliers et marqueurs de l’indice.

Exemples:

    • démarches vers les publics généralement exclus
    • représentativité des participants (critères sociologiques)
    • effectivité de leur participation (temps de parole)

  • Intégration de spécialistes des questions de lutte contre les discriminations (chercheurs, ONG) dans le CO

DIAGNOSTIC SUR L’INCLUSION

18 of 62

L

GOUVERNANCE DU CODESIGN

www.democratieouverte.org

19 of 62

AVEC QUELS PARTENAIRES ?

COMITÉ D’ORIENTATION

→ ROBUSTE

COLLECTIVITÉS PILOTES

→ TESTÉ SUR LE TERRAIN

PARTENAIRES

→ LÉGITIME

RÉSEAU D'ÉLUS

→ APPROPRIÉ

20 of 62

GOUVERNANCE

Equipe, COPIL, CA DO

Gestion du projet

Initiative

Coordination, animation

Territoires Pilotes

Test et revue

Propositions

Partage d’expérience

Soutien institutionnel

Dissémination

Comité d’orientation

Garantie qualité

Propositions

Revue et évaluation

Validation scientifique

Communication

Dissémination

CONSEIL

PILOTAGE

Cercle Partenaires

Cohérence avec autres projets

Propositions

Revue

Initiatives conjointes

Dissémination

Cercle Projet

Propositions

Revue

Financeurs

Orientations stratégiques

Revue des livrables

Partenaires co-porteurs

Co-financement, co- décision

VALIDATION

21 of 62

GOUVERNANCE DU PROJET À DO

Cercle partenaires

Territoire pilotes

Comité d’orientation

Communication

A: MB, Aymane

Priscillia, AC, Vincent, Victor

Stratégie partenaires

A: Raphaël, MB

Fanette, Pauline, AC, Mathy, Céline…

Design de l’Indice avec sous-groupes thématiques

A: MB/AC, Raphaël, Adèle

Victor, Adèle, Damien, Simon, Valérie, Audrey, Aurore + 5- 6 agents territoires pilotes + membres volontaires du CO

Plateforme

A: MB/Victor

AC, Armel, Jeanne, Simon, Damien

Budget

A: MB, Laurence

Fanette, Céline, Mathy, Pauline…

Fundraising

A: Mathy/MB, Marian

Lena, Raphaël, AC, Pauline, Romain, Victor, Audrey…

Revue, propositions

Validation des versions de l’indice

Codesign et test

Revue, propositions

Revue

Propositions

Cercles Indice

A = Animateurs

Décision sans objection

COPIL INDICE

Comité d’animation

Décisions sur orientations stratégiques de la gouvernance du projet

22 of 62

PROCESSUS DE CODESIGN

23 of 62

L'ÉQUIPE

Armel Le Coz

Lien avec le Réseau

Anne-Charlotte Antony

Chercheuse CIFRE

Mathilde Bouyé

Cheffe de projet

Priscillia Ludosky

Responsable de la Communication

Fanette Bardin

Co-présidente référente

Mathilde Rivoire

Responsable du développement

24 of 62

COMITÉ D’ORIENTATION

Chercheurs

Expertise internationale

Société civile

Collectivités locales

Institutions nationales

  • Expertise renommée
  • Connaisseurs de l'évaluation
  • Multidisciplinarité
  • Différentes universités

  • Expertise renommée
  • Diversité de perspectives
  • Différents réseaux

  • Profile engagé, pionnier
  • Expertise reconnue
  • Influence
  • Différents réseaux

  • Forte expertise
  • 2 élus - 2 agents
  • Diversité politique
  • Pas de lien avec les communes pilotes

  • Pionnier, aiguillon
  • Compétences pertinentes
  • Soutien institutionnel

20 personnalités au sein de 5 collèges

25 of 62

COLLÈGE CHERCHEURS

Maîtresse de conférences en science politique, Université de Picardie Jules Verne

Professeur des Universités en science politique, Université Paris I Panthéon-Sorbonne

Maître de conférences en science politique, Université Lumière Lyon 2

Maîtresse de conférences en droit public, Sciences Po Saint-Germain-en-Laye

Camille Morio

Guillaume Gourgues

Loïc Blondiaux

Myriam Bachir

26 of 62

COLLÈGE EXPERTISE INTERNATIONALE

Professeur en science politique, Université de Stuttgart

Maîtresse de conférences en science politique, Université de Yale

Chercheuse, facilitatrice et cheffe de projets sur les enjeux de participation citoyenne et durabilité.

Programme « Participation Citoyenne Innovante ».

OCDE

Claire Mellier-Wilson

Hélène Landemore

André Bächtiger

27 of 62

COLLÈGE SOCIÉTÉ CIVILE

Directrice analyse et intelligence collective Utopia & CommonsPolis; Co-fondatrice de Fréquence Commune

Administrateur de la Société Française de l’Evaluation, consultant en évaluation des politiques territoriales, maître de conférences, Sciences Po Lyon

Alliances Citoyennes, Formateur, fondateur de ReAct, spécialiste de la mobilisation citoyenne

Adrien Roux

Kevin Gernier

Michel Basset

Elisabeth Dau

Section française de Transparency International

28 of 62

COLLÈGE COLLECTIVITÉS LOCALES

Première adjointe à la Démocratie locale, à l’innovation démocratique et à l’engagement citoyen à la Mairie de Poitiers; Enseignante-Chercheuse

Responsable de la Mission Budget Participatif, Ville de Paris

Directeur, Participation Citoyenne de la Ville & Eurométropole de Strasbourg

Clément Girard

Jo Spiegel

Coline Berthaud

Ombelyne Dagicour

Ancien Maire de Kingersheim; Conférencier

29 of 62

COLLÈGE INSTITUTIONS NATIONALES

Conseil Economique Social et Environnemental

Catherine Lopez

Agence Nationale de la Cohésion des Territoires

Matthieu Angotti / Morgane Luraski

Coordination nationale des Conseils de Développement

Dominique Valck

CNCD

DITP

ANCT

CESE

Direction Interministérielle de la Transformation Publique

Clémence Pène

Marianne Billard

30 of 62

TERRITOIRES PILOTES : CRITÈRES DE SÉLECTION

4 COMMUNES

2 INTERCOMMUNALITES

CRITERES DE SELECTION

  • Différentes tailles
  • Différents types de commune (rurale, urbaine)
  • Différentes expériences démocratiques
  • Diversité de couleurs politiques
  • Équilibre géographique
  • Absence de soutien du LABO pour des initiatives soumises à l'évaluation
  • Pas de représentant dans le comité scientifique

  • Différentes tailles
  • Différentes problématiques
  • Différentes expériences démocratiques
  • Différence de couleurs politiques si possible
  • Absence de soutien du LABO pour des initiatives soumises à l'évaluation
  • Pas de représentant dans le comité scientifique

31 of 62

TERRITOIRES PILOTES

Châtel-en-Trièves

Bagneux

Gennevilliers

Mulhouse

CA du Pays Basque

Métropole

de Rennes

500 habitants

Région Auvergne-Rhône-Alpes

38 487 habitants

Région de l’Île de France

47 702 habitants

Région de l’Île de France

249 372 habitants

Région Grand Est

312 278 habitants

Région Aquitaine

451 762 habitants

Région Bretagne

32 of 62

PARTENAIRES

Type de partenaires

Partenaires

Organisations - démocratie

Democratic Society (co-porteur), Décider Ensemble, Solucracy, Société Française de l’Evaluation, Transparency International France

Organisations - ESG

Avise

Réseaux d’élus

France Urbaine, AMF (ac), AMRF(ac), AdCF

Institutions publiques françaises

ANCT, DITP, CESE, CNDC

Institutions de recherche

GIS (ac)

Partenaires européens et internationaux

Open Government Partnership, OECD, World Resources Institute, Dyntra, Eurenda consortium (the Danish Board of Technology, Edgeryders, Particitiz, the Royal Society of Arts, ActionAid Italie, Demos Helsinki, Synergiak, Trento University, Optimum Pareto and Open Source Politics).

33 of 62

L

DESIGN DE L’INDICE

www.democratieouverte.org

34 of 62

MÉTHODOLOGIE

V0

Typologie des critères d’éva. existants et pertinents pour le niveau local

  • CO du 17 mai

V1

Tri et critères suggérés par le CO

  • Ateliers de codesign (critères, lexique, gouv.)
  • Co du 8 juillet
  • Cercle Indice

Ajout de questions concrètes pour engager la discussion lors des ateliers

V2

Intégration des retours des ateliers

  • CO de fin septembre
  • Ateliers de codesign
  • Réunions avec les partenaires
  • Cercle Indice

Catégorisa-tion des données et personnes ressources

1ère proposition de calcul

V3

Intégration des apports de toutes les parties prenantes

  • Test dans au moins 3 territoires pilotes
  • Réunion avec les partenaires
  • Réunions bilatérales avec des membres du CO
  • Cercle Indice

V4

Intégration des leçons de la phase test et des réunions

  • CO de décembre
  • Retours des territoires pilotes

1er Indice

Adoption sans objection

Phase descendante

Mars - Mai

Phase ascendante

Avril - Septembre

Phase test

Octobre - Novembre

Finalisation pour la phase pionnière

Décembre - janvier

35 of 62

CALENDRIER DU CO-DESIGN EN 2021

Jan - Mars

Avril

Mai – Juin

Juillet

Août

Sept.

Oct-Nov

Dec.

Janvier

Cartographie de l'existant

Comité d’orientation: vision, cadrage

Travail avec les territoires

Comité d’orientation

Mise en cohérence

Ateliers codesign Comité d’orientation

Test avec les territoires

Comité d’orientation

Launch 1ère version publique

Typologie des marqueurs

Version 0

Version 1

Version 2

Version 2+

Version 3

Version 4

Validation 

36 of 62

POINT DE DÉPART: NOTRE DÉFINITION DE LA DÉMOCRATIE OUVERTE

37 of 62

CARTOGRAPHIE DES MÉTHODOLOGIES D’ÉVALUATION

22 outils français, 37 outils d’ailleurs

Une grande diversité de processus évalués

Majorité d’auteurs académiques et publics

38 of 62

NOTRE BASE DE TRAVAIL: TYPOLOGIE DES CRITÈRES D’ÉVALUATION UTILISÉS

39 of 62

APERÇU DE LA TYPOLOGIE

REPRÉSENTATION

TRANSPARENCE

PARTICIPATION

COOPÉRATION

40 of 62

DEUX RENDEZ-VOUS DANS LES TERRITOIRES

JUIN - JUILLET

OCTOBRE - NOVEMBRE

41 of 62

ATELIERS DE CODESIGN

Mulhouse

Atelier agents

Atelier habitants

Gennevilliers

Atelier agents

Pays Basque

Atelier Conseil de Développement

et agents de la CA

Bagneux

Atelier élus et agents

9 Juillet

29 juin

11 – 12 juin

13 Juillet

Gennevilliers

Atelier élus, agents

Ateliers habitants

Fin Sept.

Mi Sept.

Bagneux

Ateliers habitants –

société civile

30 Sept.

Rennes

Atelier élus, agents,

habitants

42 of 62

IMPLICATION DES HABITANTS

Contextualisation

Châtel-en-Trièves : invitation diffusée dans les boîtes aux lettres

Mulhouse: invitation des membres du conseil de développement, des conseils de quartiers et d’organisations de la société civile

CA du Pays Basque: invitation des membres du conseil de développement

Bagneux: invitation des organisations de la société civile et tirage au sort de 10 citoyens volontaires

43 of 62

APERÇU DE LA V2 EN COURS D’ÉLABORATION

  • Synthèse des critères d’évaluation et paramètres proposés par le CO et les territoires
  • Catégorisation des données à chercher et des personnes ressources
  • Indication de la nécessité de filtres pour cibler les collectivités et les personnes ressources
  • Information pour le design de la plateforme – nécessité d’inclure des définitions, typologie des questions / réponses
  • Premières propositions de traduction des réponses en valeur permettant une graduation dans un indice

44 of 62

L

GOUVERNANCE

DE L’EVALUATION

www.democratieouverte.org

45 of 62

Diagnostic rapide

Evaluation participative

Evaluation participative accompagnée

Avec la collectivité

Sans la collectivité

Avec la collectivité

Sans la collectivité

Utilisateurs

Collectivité seule (élus & agents)

OU

Citoyens, associations et ONGs seules

Lancement par la collectivité d’une évaluation à 360°

Lancement par la société civile d’une évaluation habitants

Lancement par la collectivité d’une évaluation à 360° avec une expertise externe

Lancement par la société civile d’une éva. habitants avec une expertise externe

Objectifs

Obtenir un premier aperçu de la vitalité de la démocratie locale et de son degré d’ouverture à partir de critères clefs

Préparer une évaluation participative

Identifier les priorités possibles d’une stratégie ou plan d’action pour la participation citoyenne

Bâtir un diagnostic partagé et réconcilier les perceptions d’élus, agents et habitants

Renforcer le pouvoir d’agir des citoyens

Définir des priorités communes pour ouvrir davantage la démocratie

Partager le regard des habitants et, dans certains cas, tirer une sonnette d’alarme

Nourrir un bilan de l’action communale et des propositions citoyennes

Objectiver davantage les résultats

Bénéficier d’un appui pour impliquer les publics éloignés

Être accompagné dans l’interprétation des résultats et la formulation de priorités

Renforcer le crédit des résultats et les propositions citoyennes

Périmètre de l’évaluation

Questionnaire court, sur les paramètres objectivables

Recours à tous les paramètres de l’indice

Seuil de participation citoyenne

Apport qualitatif, utilisation de questions complémentaires

Résultats adoptés à l’absence de la collectivité

Type de données

Données objectives

Données objectives et subjectives / qualitatives

Données obtenues lors de focus groups et + de données issues de publics éloignés

Publication

Non

Oui une fois atteint un seuil de participation citoyenne

Oui une fois atteint un seuil de participation citoyenne et les questions qualité adressées

3 OPTIONS D’ÉVALUATION, QUESTIONNAIRE ADAPTÉ AUX SCÉNARIOS

46 of 62

QUESTIONNAIRE ADAPTÉ AU TYPE DE TERRITOIRE

Filtre territoire

Commune

< 2.000 habitants

Seuil ville

2.000 – 50.000 habitants

Seuil pour l’obligation de conseil de développement

50.000 – 300.000 habitants

Seuil pour les métropoles

> 300.000 habitants

Intercommunalité

< 50.000 habitants

Seuil pour les CA (dérogation 30.000)

> 50.000 – 300.000 habitants

Seuil pour les métropoles

> 300.000 habitants

47 of 62

QUESTIONNAIRE ADAPTÉ AUX UTILISATEURS

Utilisateur

Elu

Filtre sociologie

  • Questions « corps commun » d’un point de vue « élus »
  • Questions ciblant l’expérience d’élu (ex: engagements)

Agent

Filtre sociologie + engagement citoyen

  • Questions « corps commun » d’un point de vue « agent »
  • Questions sur les paramètres objectivables et quantitatifs

Habitant

Filtres sociologie + engagement citoyen

  • Questions « corps commun » d’un point de vue « habitant »
  • Questions cherchant des données plus subjectives et qualitatives

Evaluateur indépendant

  • Questions sur les paramètres objectivables et quantitatifs
  • Questions additionnelles pour des focus groupes

48 of 62

DÉFI : CONCEVOIR UN OUTIL POUR TOUS

Typologie de critères d’évaluation issus d’outils et de méthodes majoritairement conçus par des experts pour des experts, souvent pour des processus participatifs

Critères et questions codéfinies avec des habitants, élus et agents pour des habitants, élus et agents, y compris ceux n’ont pas pris part à des processus participatifs

Point de départ

Destination

perspectives langage nature – moins quantitative,

plus qualitative

Changement de :

49 of 62

DÉFI : RENDRE POSSIBLE LA PARTICIPATION DE TOUS

Comment rendre l’évaluation réellement inclusive?

Aller là où sont les habitants:

              • Organiser des ateliers avec les associations dans les maisons de quartiers
  • Organiser des échanges en présentiel lors d’événements déjà organisés par les associations locales ou habitants (ex: concert jeunes)
  • Interroger les habitants sur leurs lieux de vie, comme les marchés

Utiliser les réseaux sociaux pour faire des quizz

La plateforme ne va atteindre que les habitants informés, citoyens actifs et déjà impliqués dans des processus participatifs

50 of 62

DÉFI : S’ASSURER D’UNE ÉVALUATION FAISABLE DANS UN TEMPS LIMITÉ

Suggestions des élus, agents et habitants :

  • 3 – 4 questions « teaser », 1er résultat symbole rouge, orange et vert et une invitation à aller plus loin

  • Filtres et questions tiroirs

  • Différentiations des questions pour les agents, les élus, habitants, porteurs d’associations…

  • Veiller à une interface ludique et intéressante

La première version de l’indice avait une centaine de question…peu digérable en un temps limité

Le temps d’attention des utilisateurs varie de 3 à 20 min, la moyenne étant plus proche de 5 min

51 of 62

DÉFI : GARANTIR LA ROBUSTESSE DE L’EVALUATION

Suggestions :

  • Atelier participatif pour cadrer la démarche

  • Concevoir des formations express et méthodologies ludiques sur la plateforme, pour les réseaux sociaux et une diffusion de lors des ateliers

  • Questions quantitatives à intégrer, en particulier pour les agents

  • Ateliers participatifs pour débattre des résultats des évaluations individuelles

  • Engagement à produire un plan d’amélioration

  • Eviter la simple agrégation de points de vue individuels

  • Former les utilisateurs

  • Collecter des données quantitatives

52 of 62

ENCOURAGER ET CADRER L’ÉVALUATION ACCOMPAGNÉE: OPTIONS IDENTIFIÉES

Evaluation ouverte à tous

avec un cadre de qualité

Formation certifiante payante

  • Publication d’un guide méthodologique pour l’évaluation
  • Intégration de préconisations sur la plateforme
  • Documentation sur le design de la plateforme en open source
  • Communication pour mobiliser la communauté des pros DO et plus largement les évaluateurs de l’écosystème
  • Offre de ressources et d’événements entre évaluateurs hors réseau DO et hors parcours certifiant

  • Formation proposée par DO, DemSoc et autres partenaires co-porteurs pour garantir les valeurs, les principes et la rigueur méthodologique qui sous-tendent l’évaluation
  • Publication sur la plateforme d’une liste d’organisations et de professionnels formés
  • Offre de ressources, d’événements et discussions entre évaluateurs incluse dans le forfait formation.

53 of 62

DISCUSSION SUR LE CADRAGE L’ÉVALUATION ACCOMPAGNÉE

Doit on prévoir un encadrement de l’accompagnement de l’évaluation participative avec des formations ?

Quel mécanisme de vigilance pour garantir la qualité des évaluations accompagnée?

  • Exigence de données qualitatives (ex: focus groupe; rapport sur les préconisations) pour valider l’évaluation en ligne?
  • Suivi des retours des collectivités sur la plateforme?
  • Autres suggestions?

54 of 62

L

PLATEFORME

www.democratieouverte.org

55 of 62

UNE PLATEFORME, TROIS FONCTIONNALITÉS

EVALUATION MULTI-ACTEURS

ESPACE COLLABORATIF

OUTIL D’AMELIORATION

Interface adaptée à l’utilisateur

Support méthodologique à chaque étape (vidéo, tutos)

Eclairages et graphiques explicatifs

Validation par la participation citoyenne

Comparaison des retours des élus, agents, citoyens, professionnels

Suggestion d’axes d’amélioration prioritaires

Conseils sur les étapes clefs

Lien vers des outils pertinents

Mise en réseau

Echange d’expériences et de conseils

Forums thématiques

Analyse des ratés et des succès sur la base du volontariat

Une plateforme ouverte, gratuite, interactive et collaborative

56 of 62

CALENDRIER

Jan - Mars

Avril

Mai – Juillet

Août

Sept.

Oct-Nov

Dec.

Janvier

Identification d’autres sites avec des buts similaires

1ers échanges avec une agence sur un cahier des charges

Récolte de données pour les parcours utilisateurs

Précision de la gouvernance de l’évaluation

Parcours utilisateurs (V1)

Dialogue avec des agences:

JoliCode

Collectif Bam

Usage Commun

16: Atelier de prototypage

Finalisation du cahier des charges

Développement d’un V1 de la plateforme

57 of 62

VERSION 1 DE LA PLATEFORME

1Accueil et questionnaire de profilage des utilisateurs et du scénario

    • 4 grands types d'utilisateurs (habitants, élus, agents des collectivités et évaluateurs indépendant)
    • Différents scénarios, dont : 3 niveaux d’évaluation; évaluation en cours ou non; implication de la collectivité ou non
    • Différentes expériences, dont : vote ou non ; implication dans des processus participatifs ou non; bénévole ou porteur de structures de la société civile organisée (association, syndicats, etc…)

2. Présentation de l’évaluation : options possibles avec leurs objectifs, méthodologies et guides

3. Questionnaire en ligne adapté au scénario, type d’utilisateur et son expérience, avec un appui embarqué (définitions, vidéos)�

4Un outil de visualisation des résultats de l'évaluation 

  • Agrégation des données transmises lors des réponses individuelles au questionnaire par type d'utilisateur et de manière globale
  • Graphiques pie charts et échelles de 1 à 4 pour chaque critère d'évaluation
  • Graphiques en toiles d'araignée au niveau des grands marqueurs et des piliers
  • Visualisation des résultats de toutes les collectivités participantes et leur comparaison au niveau des piliers, marqueurs et critères. 

5Un espace pour échanger des expériences et des analyses

  • Page événements pour la communauté (webinars, interviews, débats, etc…)
  • Page pour le partage d’expériences et de leçons – bonnes pratiques, défis communs

58 of 62

VISUALISATION DES RÉSULTATS

Niveau

Options en discussions pour visualiser les résultats

Paramètres

  • Pour certaines questions, visuels mettant en miroir différentes données (ex: données objectives et perceptions des habitants ou points de vue de différents types d’utilisateurs)
  • Agrégation des données dans un visuel (ex: camembert, échelle, nuage de mots, etc;..)
  • Comparaison des réponses de l’utilisateur avec la moyenne des réponses

Critères

  • Agrégation des données dans un visuel avec une graduation de 1 à 4
  • Eléments explicatifs pour le score obtenu

Marqueur

  • Agrégation des résultats des critères dans un score « marqueur » visualisable avec une graduation de 1 à 4
  • Eléments explicatifs pour le score obtenu
  • Visualisation des points forts et des points faibles sur le marqueur

Pilier

  • Agrégation des résultats des marqueurs dans un score « pilier » visualisable avec une graduation de 1 à 4
  • Eléments explicatifs pour le score obtenu
  • Visualisation des points forts et des points faibles sur le pilier

4 piliers

  • Pas d’agrégation entre les 4 piliers : possibilité de score différents selon les piliers (ex: 4 transparence; 2 participation; 2 coopération; 3 représentation)
  • Agrégation des points forts et des points faibles sur les 4 piliers

59 of 62

TRIANGLE DES BERMUDES POUR L’INDICE

CIVIC WASHING

CITY BASHING

Dévoiement par la collectivité

Biais positif

Consultation d’un cercle de soutien

Dévoiement par l’opposition

Biais négatif

Consultation d’un cercle critique

ACCESS BARRIERS

Garde-fous devenus des barrières à l’utilisation et à l’émulation

Faible transparence

Quels garde-fous?

Conditions trop exigeantes

pour publier les résultats

Prérequis méthodologiques

trop complexes et/ou coûteux

Pas d’encadrement ni warning

pour publier les résultats

60 of 62

QUELS GARDE-FOUS ÉQUILIBRÉS?

Seuil de participation citoyenne pour publier les résultats

Diagnostic rapide uniquement avec des données objectivables

Pourcentage évaluateurs / population et design dynamique pour visualiser son évolution

Notation différente pour les diagnostics rapides et les évaluations participatives

ACCESS BARRIERS

Garde-fous dans la méthodologie et le design de la plateforme minimisant le risque d’instrumentalisation des résultats sans affaiblir l’attrait de l’indice

Mention possible de focus groupes choisis par la collectivité pour compléter le diagnostic rapide mais pas de visualisation de leurs résultats comme ceux de l’évaluation participative ouverte et volontaire

NO FILTER

Publication automatique des résultats sans seuil de participation citoyenne

61 of 62

PUBLICATION ET UTILISATION DES RÉSULTATS

Publication des résultats et ouverture de l’option partage :

  • Automatiquement après l’atteinte d’un seuil de participation citoyenne (ratio participants/ population à déterminer)?
  • Sur la base du volontariat, après l’atteinte d’un seuil de participation citoyenne?
  • Sur la base d’un vote des utilisateurs, après l’atteinte un seuil de participation citoyenne?

Comparabilité entre communes:

Si validé, quand?

            • Automatiquement après l’atteinte d’un seuil de participation citoyenne?
            • Sur la base du volontariat de la collectivité, après l’atteinte d’un seuil de participation citoyenne?
            • Sur la base d’un vote des utilisateurs, après l’atteinte d’un seuil de participation citoyenne?

Sur quelle base?

Proposition: classement des résultats pour la comparabilité par taille et type de collectivité (commune ou intercommunalité)

A quels niveaux?

Proposition : tous les niveaux - paramètres, critères, marqueurs et piliers

62 of 62

www.democratieouverte.org

www.democratieouverte.org

Merci!

Mathilde.bouye@democratieouverte.org

a-c.antony@democratieouverte.org