Audition des deux ministres, Emmanuelle Wargon et Sébastien Lecornu, sur la méthodologie du Grand Débat National. J’ai posé une question pour vérifier l’objectivité du traitement des contributions.

Intervention sur la Méthodologie du Grand Débat National
(2,30 minutes)

Madame la Ministre Wargon,
Monsieur le Ministre Lecornu,
Mes chers Collègues,

« En moyenne, les intelligences artificielles (IA) font beaucoup moins d’erreurs, mais elles font des erreurs que ne feraient jamais les humains ». Ces mots de Rand Hindi, entrepreneur français et présenté comme un « crack du numérique » par beaucoup, prennent une acuité toute particulière dès lors qu’il s’agit d’appliquer des algorithmes pour faire émerger la substantifique moelle des deux millions de contributions au grand débat.

Il faut bien prendre conscience que des paramètres de ces algorithmes dépendent la synthèse et la présentation qui en seront faites. C’est en ce sens que les algorithmes utilisés revêtent un enjeu démocratique majeur. En l’espèce, nous sommes en présence de l’illustration parfaite de l’impact massif du numérique et de l’IA sur la sphère politique et plus globalement dans l’espace citoyen.

Madame la ministre, Monsieur le ministre, vous connaissez l’attachement du Sénat à sa mission de contrôle de l’action du Gouvernement. Dans le cadre de cette réunion bienvenue sur la méthodologie du grand débat, je crois qu’il est fondamental que notre assemblée s’assure que ce qui va déterminer la présentation et les conclusions de cette consultation ne dénature pas la pensée et les idées exprimées. D’ailleurs, il aurait été plus logique que ce débat se déroule en amont de la consultation et que la représentation nationale puisse être associée à la définition de la méthodologie retenue.

Tout d’abord, c’est une question de considération à l’égard des citoyens qui ont pris part à cette démarche. Cet exercice d’expression citoyenne serait réduit à néant s’il s’avérait que la synthèse qui en est issue, à distinguer de la lecture politique et des propositions que feront le Gouvernement, est partiale, orientée et incomplète.

Ensuite, c’est une affaire de confiance dans l’ensemble du processus du grand débat et singulièrement sur les suites à y donner. Cette confiance ne peut se décréter et s’agissant du traitement algorithmique, il passe par l’application de trois principes clés :

  • l’exhaustivité : les algorithmes et mécanismes d’intelligence artificielle doivent traiter toutes les contributions déposées sur le site ;
  • la conformité : ils doivent rester fidèles à l’esprit et à la lettre de ces contributions et éviter tout contre-sens. Sur ce point, il s’avère important qu’ils reconnaissent et saisissent des nuances telles que « baisser les impôts » et « baisser la pression fiscale » qui, en sous-jacent, peuvent recouvrir des suggestions très différentes. Sans cette précaution, la synthèse sera nécessairement déformée ;
  • la transparence : permettre à tout un chacun de comprendre, donc de contrôler, le fonctionnement des algorithmes en ouvrant la « boîte noire » ; autrement dit, les rendre intelligibles afin de garantir leur acceptabilité par la société.

En somme, les algorithmes doivent respecter un principe-chapeau, celui de loyauté, dégagé par la CNIL au terme de son débat sur les enjeux éthiques des algorithmes : « Tout algorithme, qu’il traite ou non des données personnelles, doit être loyal envers ses utilisateurs, non pas seulement en tant que consommateurs, mais également en tant que citoyens (…) L’intérêt des utilisateurs (des citoyens) doit primer ».

Alors, Madame la ministre, Monsieur le ministre, mes questions seront simples : les algorithmes qui conditionnent la synthèse du grand débat sont-ils loyaux ? La transparence est-elle garantie ? Enfin, quel est le degré d’intervention humaine au cours du processus de restitution ?

Je vous remercie.