Doit-on mettre l'intelligence artificielle au service de la participation citoyenne ?
.png)
Dans ce monde en mutation accélérée, nous avons la conviction que l'IA doit être utilisée comme outil d'assistance, jamais comme autorité. Dans le domaine de la démocratie participative qui est la nôtre, quelques pistes sont déjà en cours d'exploration. Des initiatives naissent, des tests sont observés, des règles de bonnes pratiques se mettent en place. Détails.
L'IA générative n'est ni une baguette magique ni un sujet à rejeter par réflexe défensif. C'est un fait, elle peut renforcer l'efficacité de la participation, rendre l'information plus accessible, aider à s'orienter dans des documents hétérogènes et soutenir l'analyse lorsque les contributions deviennent très nombreuses. Cependant, un cadre très fort doit être instauré autour de son utilisation : les contributions du public sont destinées à être lues, comprises et prises en compte par des responsables identifiés. Jamais l'IA ne devra devenir une boîte noire où la parole disparaît.
Chez Dimosia, notre doctrine repose sur trois principes : primat de la source, contrôle humain effectif, traçabilité. L'IA propose, organise, alerte. Les responsables lisent, arbitrent et assument.
Première étape ce mois-ci, le groupe lance ses premières expérimentations d'IA générative sur des enquêtes publiques en cours. Pas d'effet d'annonce, nous avons un cadre strict, nous nous référons à des cas d'usage précis avec la volonté d'apprendre en conditions réelles.
Trois cas d'usage sont ainsi testés actuellement :
1) Dossier : comment informer et le rendre accessible
Dossiers volumineux, techniques, hétérogènes : nous expérimentons un assistant de recherche et de consultation capable d'aider le public et les commissaires enquêteurs à naviguer, reformuler une question et orienter vers les passages pertinents du dossier.
2) Contributions : comment aider à analyser des avis nombreux
Quand le volume augmente, le risque est de rater les signaux faibles, les thèmes émergents ou les redondances. Aussi, nous testons des fonctions d'assistance à l'instruction : classification thématique, regroupements par similarité, synthèses intermédiaires, alertes. Ces résultats restent des hypothèses de travail, à valider par les responsables.
3) Bilan : comment renforcer la restitution et la traçabilité
Une participation de qualité suppose, en fin de dispositif, un retour clair en direction du public. Nous testons actuellement des aides à la structuration de synthèses plus lisibles, à condition qu'elles soient vérifiées, appuyées sur des sources explicites, et qu'elles respectent la diversité des positions.
Ce que l'IA ne fera pas chez Dimosia
Certains usages sont explicitement exclus : générer des réponses à la place du maître d'ouvrage ; produire une conclusion, un avis ou un arbitrage en lieu et place des responsables ; trancher sans révision humaine du traitement d'une contribution ; décider d'une modération sans revue humaine. Notre règle est simple : la responsabilité ne reviendra jamais à la machine !
Et maintenant ?
Premier semestre 2026 : expérimentation sur des enquêtes publiques avec des commissaires enquêteurs et porteurs de projets volontaires. À l'issue de cette phase, nous conduirons un bilan de ce qui a fonctionné, ce qui a échoué et des ajustements nécessaires.
.webp)


