Gilles J. Guglielmi [Link].
eu
Revue générale du droit.
Contrôle des algorithmes et droit du contentieux
administratif français
Gilles J. Guglielmi1
Citer cette publication : Gilles J. Guglielmi, « Contrôle des algorithmes et
droit du contentieux administratif français », Revue générale du droit,
2023.
1 Professeur en droit public à l’Université Paris Panthéon-Assas.
[1]
Contrôle des algorithmes et droit du contentieux administratif français
Pour s’en tenir à la définition administrative la plus générale, un
algorithme constitue « l'étude de la résolution de problèmes par la mise en
œuvre de suites d'opérations élémentaires selon un processus défini
aboutissant à une solution » (arrêté du 27 juin 1989 relatif à
l'enrichissement du vocabulaire de l'informatique).
La réforme de l’État est centrée depuis 1996 sur la numérisation des
activités administratives. Elle a été relayée par la Modernisation de l’Action
publique de 2012 à 2017, puis par la Transformation publique de 2017 à
2022. De façon à obtenir et à rendre signifiantes les quantités de données,
notamment personnelles, détenues sur les utilisateurs, d’une part, et à
définir de façon personnalisée les produits et services qu’on leur fournit
d’autre part, la mise en place d’algorithmes a dû être précédée de la
dématérialisation des procédures administratives. Le développement des
algorithmes en milieu administratif n’en était pas moins le but nécessaire,
s’agissant d’un outil stratégique de valorisation de ces données.
Les algorithmes se sont progressivement introduits dans les processus
administratifs pour supprimer des tâches répétitives, détecter des
corrélations, identifier des risques, circulariser le contrôle interne, aider à
la décision, produire des décisions créatrices de droits. C’est ainsi que sont
apparus au grand jour les cas d’usage d’algorithmes précédant le contrôle
fiscal ou social, proposant un montant d’indemnisation ou affectant les
bacheliers dans les universités ou les pétitionnaires dans les logements
sociaux (Pour des illustrations, V. par ex. Bourcier, D., De Filippi, P., « Les
algorithmes sont-ils devenus le langage ordinaire de l'administration ? », in
Koubi, G., Cluzel-Métayer, L., Tamzini, W., Lectures critiques du Code des
relations entre le public et l’administration, 2018, LGDJ ; Timmer, I., Rietveld,
R., « Rule-based systems for decision support and decision-making play an
important role in Dutch legal practice. A brief overview of applications
and implications » Droit et société, 2019/3, n° 103, p. 517-534).
Ce développement d’outils informatisés qui aboutissent à des prises de
décision dont les paramètres peuvent être définis localement pose de
nombreuses questions démocratiques qui tiennent à la conception même
que l’on se fait de l’État et de son rôle (Sée, A., « La régulation des
[2]
Gilles J. Guglielmi [Link]
algorithmes : un nouveau modèle de globalisation ? », RFDA 2019,
p. 830), dépassant ainsi le seul droit administratif. Selon une logique qui
traverse dorénavant, dans les régimes politiques libéraux, les pratiques de
la plupart des exécutifs, l’enjeu démocratique se retrouve concurrencé par
un enjeu managérial.
Un enjeu démocratique
Commencer par cet enjeu peut aujourd’hui paraître crucial pour deux
raisons. Le droit administratif, tout d’abord, n’est plus le champ principal
de la protection des libertés, tel qu’il a pu être investi par le Conseil d’État
depuis 1875 et par la doctrine depuis 1954 et la création de l’enseignement
des « Libertés publiques ». La crise sanitaire de 2020 a bien montré que le
juge administratif est avant tout au service des politiques publiques et des
décisions gouvernementales, précisément dans les périodes de
circonstances exceptionnelles où la brutalité des décisions administratives
est la plus attentatoire aux libertés et où la forme de leur adoption heurte
le plus le principe démocratique.
Ensuite, l’intégration du phénomène numérique, ou si l’on préfère de la
numérisation de l’État et de la Société, dans le champ du droit
constitutionnel et des libertés, est particulièrement timide. On pourrait
pourtant penser que tout ce qui modifie profondément le fonctionnement
de la Société entre dans le champ du droit constitutionnel. L’article 16 de
la DDHC nous indique en effet que Toute Société dans laquelle la garantie des
Droits n'est pas assurée, ni la séparation des Pouvoirs déterminée, n'a point de
Constitution, ce qui devrait nous rappeler que l’objet premier des savoirs
constitutionnels est non pas la norme, mais la Société. Mais il est un fait
que jusqu’à présent, ni la mondialisation du réseau Internet, ni l’utilisation
de programmes informatiques pour traiter les données qui transitent par
ce réseau, n’ont fait l’objet d’une véritable intégration du phénomène
numérique dans le champ constitutionnel.
Or, l’enjeu de cette intégration est fondamentalement démocratique
(Cluzel-Métayer, L., « L'influence des algorithmes sur l'édiction des
décisions administratives », AFDA, Les méthodes en droit administratif, 2018).
[3]
Contrôle des algorithmes et droit du contentieux administratif français
Il inclut la connaissance des données et des processus de traitement ainsi
que la maîtrise de ces données et processus. Cela pose les questions
essentielles : Qui détient le pouvoir de produire et traiter les données ?
Comment ce pouvoir est-il contrôlé ? Quelles sont les conséquences en
termes de responsabilité devant les citoyens ? Autant de questions dont les
déterminants, l’analyse et les solutions ne sont nullement limités au droit
administratif, au droit public, ou même au droit tout court. Elles
conduisent à des réponses qui ne peuvent qu’emprunter le chemin des
valeurs et des choix politiques.
En ces domaines, contrairement à une illusion française commune,
l’État ne peut pas tout et la technologie n’est pas nécessairement
révolutionnaire (Dubois, C., Schoenaers, F., « Les algorithmes dans le
droit : illusions et (r)évolutions », Droit et société, 2019/3, n° 103, p. 501-
515). L’État rencontre de nombreux obstacles à l’exercice de sa
souveraineté et ses autorités administratives à l’introduction de techniques
nouvelles, en conséquence de l’utilisation même des outils numériques.
Le premier type d’obstacles est fonctionnel. L’exercice des compétences
de l’État (défense, politique monétaire et fiscale, éducation, systèmes de
santé) est conditionné par sa dépendance complète aux réseaux
numériques et aux programmes de traitement de l’information.
Le deuxième type d’obstacles est factuel. De manière exemplaire, l’État
rencontre des difficultés matérielles dans l’exercice de sa mission de
protection des droits et libertés des citoyens. Les réseaux numériques
mondiaux sont en effet régis par des principes économiques et juridiques
libéraux et par le droit privé : l’État n’y dispose pas de moyens réellement
contraignants pour y faire respecter le droit des données personnelles, le
droit à la vie privée, le droit d’auteur, etc.
Le troisième type d’obstacles est de méthode. L’organisation du réseau
mondial d’Internet repose sur des modes de régulation décentralisée entre
acteurs privés, où les États sont placés à égalité avec ces acteurs. Par
définition, ils ne sont pas en position de souveraineté et, par définition, les
citoyens n’y exercent pas un pouvoir démocratique car le principe de cette
régulation est celui de la négociation et non celui du vote. Relativement à
[4]
Gilles J. Guglielmi [Link]
la gouvernance des réseaux, le Conseil constitutionnel a déjà été saisi de
questions liées à l’interférence des opérateurs privés dans la définition des
politiques publiques, c’est-à-dire de leur ingérence dans les compétences
juridiques des États (CC, n° 2015-468 ss. DC du 22 mai 2015 à propos de
Uber ; et CC, n° 2016-744 du 29 décembre 2016, à travers la loi de finances
pour 2016). Mais nombreux sont les secteurs dans lesquels, sans qu’il y ait
eu contentieux constitutionnel ou administratif, cette ingérence est
patente. L’exemple le plus topique est celui d’une célèbre plate-forme de
prise de rendez-vous médicaux en ligne, particulièrement sollicitée par le
gouvernement lors de la crise sanitaire de 2020.
Malgré ce contexte peu favorable à la construction raisonnée d’un cadre
juridique de contrôle, le juge administratif ou constitutionnel a eu à faire
face à divers recours mettant en jeu l’usage d’algorithmes. Il est dès lors
nécessaire de rechercher les axes structurant ses analyses et ses
interprétations, pour apprécier la nature et l’étendue du contrôle exercé
sur les nouveaux processus d’administration qui intègrent, selon les
secteurs d’intervention ou d’action, des outils numériques et logiciels plus
ou moins sophistiqués, à des stades divers de l’exercice des compétences
et des fonctions des personnes publiques.
Un enjeu managérial
La puissance de calcul mise en œuvre par les algorithmes peut être un
auxiliaire redoutable du pouvoir de décision confié aux autorités
exécutives et administratives (Desmoulin-Canseiler, S., Le Métayer, D.,
Décider avec les algorithmes. Quelle place pour l'homme, quelle place
pour le droit, coll. « le sens du droit », 2020, Dalloz). D’une part, elle
accroît le caractère asymétrique (ou inégalitaire) du droit administratif et
de son contentieux, puisque le particulier est vraiment seul face à une
machine dont les moyens le dépassent de très loin ; d’autre part elle porte
atteinte à une conception éthique de la décision administrative, résultat
d’un libre arbitre humaniste, appliqué à la situation personnalisée - et donc
unique - de son destinataire.
[5]
Contrôle des algorithmes et droit du contentieux administratif français
Toute l’histoire du contrôle de l’action administrative montre que la
préoccupation première du juge administratif et de la doctrine a été
pendant environ un siècle, depuis le règlement de procédure du Conseil
d’État de 1860 jusqu’à l’après Deuxième Guerre mondiale, de soumettre
la décision administrative au droit.
Puis, dans un deuxième temps, qui correspond à l’essor du principe de
contradiction puis du droit au procès équitable (L’usage d’algorithmes ne
manque pas de mettre en question les acquis de cette phase : Ferrie, S.-M.,
« Les algorithmes à l'épreuve du droit au procès équitable », Procédures,
2018/4, étude 4) depuis l’arrêt Trompier Gravier jusqu’à l’arrêt Didier, le droit
administratif et de son contentieux a privilégié une conception
principalement procédurale qui rejoint d’ailleurs la tendance mondiale à
définir ainsi un droit administratif globalisé, par la transparence, la
participation, la motivation des décisions, le droit au recours, la
redevabilité et quelques standards de contrôle : proportionnalité,
adéquation des moyens aux fins, non-utilisation de moyens inutilement
restrictifs, attentes légitimes.
Enfin, dans un troisième temps, particulièrement perceptible en France
depuis la mise en œuvre des diverses politiques publiques de réforme de
l’État et du service public à partir de 1995, la décision administrative a
progressivement été orientée par la notion de qualité issue des sciences de
l’organisation des entreprises, en se fondant soit sur l’adéquation des
réalisations par rapport aux objectifs, soit sur la baisse des coûts de
fonctionnement, soit sur la satisfaction des usagers. Elle prend ainsi une
tournure essentiellement managériale, où le respect du droit matériel et de
la justification profonde de ce droit passe après celui de la procédure,
considérée comme un parapluie sécuritaire et une satisfaction lénifiante
des usagers, et surtout après les critères quantitatifs d’efficacité comptable.
L’enjeu managérial de la décision administrative est d’ailleurs rejoint par
celui de la justice administrative qui est censée la contrôler. Presque
simultanément en effet, depuis la réforme des procédures d’urgence
contentieuse en 2000, le droit du contentieux administratif privilégie la
notion de qualité de la justice, en gérant avant tout les flux de recours, soit
en restreignant l’accès au juge par l’intérêt à agir ou les délais de recours,
[6]
Gilles J. Guglielmi [Link]
soit en diminuant les catégories d’affaires jugées en formation collégiale,
soit en systématisant l’utilisation des ordonnances de tri. La justice
administrative elle-même a déjà engagé le mouvement d’algorithmisation
du procès (Clement, M., « Algorithmes au service du juge administratif :
peut-on en rester maître ? », AJDA 2017, p. 2453), mais cette question très
particulière ne sera pas traitée ici.
C’est donc la mise en œuvre des algorithmes de décision administrative
que l’on doit étudier, en soulignant à la fois la modification qu’ils induisent
dans la représentation de la décision administrative (Boudinar-Zabaleta,
A., « La décision administrative algorithmique », Revue de droit public
approfondi, déc. 2017, n° 5, 1) et des questions qu’ils soulèvent dans le
contrôle contentieux opéré par le juge administratif.
Il n’est pas utile de se livrer pour cela à une réflexion détaillée sur la
notion d’Intelligence artificielle (IA) dont le périmètre est à la fois trop
large et insuffisamment consensuel pour livrer une confrontation
raisonnable à des outils d’analyse juridique précis et spécialisés dans une
problématique de contrôle. Les applications actuelles de l’IA relèvent,
selon les experts, de l’IA faible (Cypel, A., Au cœur de l'intelligence artificielle.
Des algorithmes à l'IA forte, DeBoeck, coll. « Hors Collection Sciences »,
2020. On parlera d’IA forte lorsque cette discipline aboutira à doter la
machine d’une intelligence qui lui serait propre, et au-delà de l’auto-
apprentissage, fera naître en elle une forme de conscience). Leurs
processus sont fondés sur des algorithmes, listes d’instructions et règles
permettant de dégager, soit directement soit à l’aide de probabilités, des
décisions. Il est ainsi suffisant de se centrer matériellement sur les
algorithmes pour poser les termes du problème du contrôle par le juge, y
compris dans une perspective de protection des droits de l’Homme
(CNCDH, 7 avril 2022, Avis n° A-2022-6 relatif à l’impact de l’intelligence
artificielle sur les droits fondamentaux). Le travail est en quelque sorte
facilité, car il n’y a pas, contrairement à certains fantasmes, de changement
de paradigme.
Bien sûr, la tendance aujourd’hui répandue consistant à promouvoir la
déontologie, l’éthique et la prévention a tendance à détourner l’attention
des réelles difficultés rencontrées par la théorie du droit pour appréhender
[7]
Contrôle des algorithmes et droit du contentieux administratif français
les modifications que les algorithmes produisent sur la décision
administrative. En témoigne la mise en avant par la CNIL (Comment
permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de
l’intelligence artificielle, Rapport de synthèse du débat public dans le cadre de
la mission de réflexion éthique confié par la Loi pour une République
numérique, déc. 2017) autant que par la doctrine (Grabias, F., « La
transparence administrative, un nouveau principe ? », JCP A, n° 50, 17
déc. 2018, 2340), des principes éthiques de loyauté, de confiance et de
vigilance, qui devraient englober des concepts dont la teneur juridique est
déjà mitigée, comme la dignité humaine ou la vie privée. L’autorégulation
qui en résulte renforce indéniablement un effet préventif bénéfique déjà
présent dans les lois (Loi n° 78-17 du 6 janvier 1978 relative à
l'informatique, aux fichiers et aux libertés, art. 121 créé par l’Ordonnance
n° 2018-1125 du 12 décembre 2018, par ex.). Elle rejoint aussi la
préconisation récente de la CNCDH de réaliser une étude d’impact pour
l’introduction d’algorithmes dans le processus de décision administrative.
Toutefois, comme toute « compliance » conçue pour des acteurs privés,
elle semble négliger le fait que, pour les autorités administratives, ces
obligations sont en fait incluses dans le respect du principe de légalité.
N’étant pas principalement fondée sur le droit, elle ne saurait constituer
l’unique ni le meilleur mode de contrôle (Forest, D., « La régulation des
algorithmes, entre éthique et droit », Lamy Droit de l'Immatériel, 2017,
n° 137, p. 38-42).
Ainsi, au plan du droit, les problèmes nouveaux qui apparaissent sont de
même nature que par le passé (De Filippi, P., « Repenser le droit à l'ère
numérique : entre la régulation technique et la gouvernance
algorithmique », Gautrais, V., Moyse, P. E., Droit et Machine, 3, Éditions
Thémis, 2017, hal-01676890). En effet, que la décision soit prise par une
machine ou bien que cette machine soit une aide à la décision de la
personne nominalement compétente, la question de la responsabilité et de
son imputation se pose. Qu’elle soit prise par la machine ou par délégation,
la question de la légalité de la décision se pose (Duclerq, J.-B.,
« L'automatisation algorithmique des décisions administratives
individuelles », RDP 2019, p. 295). Dans les deux cas, c’est le résultat du
[8]
Gilles J. Guglielmi [Link]
processus, acte juridique ou fait juridique, que le système de droit saisit.
Dans les deux cas, les tensions s’établissent entre droit et technique, entre
informatique juridique et droit de l’informatique.
Ce résultat et ces tensions sont tributaires de variables administratives
diverses auxquelles le contrôle juridictionnel peut s’appliquer. Ainsi, de
prime abord, la réception des innovations induites par les algorithmes
incite le juge à contrôler les nouvelles procédures administratives intégrant
leur usage (I). Mais pour y parvenir, se posera le plus souvent la question
du contrôle direct de la décision administrative issue de la production
algorithmique (II).
1. Le contrôle juridictionnel de l’usage des algorithmes dans
la procédure administrative
L’hypothèse d’un contrôle juridictionnel de l’usage des algorithmes se
situe dans un cadre particulier. Le droit public et administratif du
numérique s’est en effet déployé dans deux directions distinctes et
complémentaires : le droit des données publiques d’une part, à vocation
générale, qui prend pour objet les données elles-mêmes et leur collecte ; le
droit des procédures administratives numériques d’autre part, qui se centre
sur l’utilisation de ces données au moyen de divers processus de traitement
dont certains constituent des algorithmes. Ce dernier champ est autant
interne, s’il concerne une partie de la procédure d’élaboration des actions
et des actes des autorités administratives, qu’externe s’il se saisit de
données personnelles pour les besoins d’une décision individuelle ou s’il
débouche sur des actes réglementaires qui s’imposent erga omnes. Le juge
retrouvera ici sa distinction traditionnelle entre procédure constituant une
garantie des droits des usagers et procédures purement internes.
1.1 La transparence et l’intelligibilité de l’usage des algorithmes
La première des préoccupations et des garanties procédurales est
certainement la transparence (Orofino, A. G., « The Implementation of
the Transparency Principle in the Development of Electronic
Administration », European Review of Digital Administration and Law, 2020,
[9]
Contrôle des algorithmes et droit du contentieux administratif français
vol. 1, 1-2, p. 123). C’est par elle que commence la prise de conscience par
les particuliers des modalités de traitement de leurs demandes, c’est aussi
par elle que le législateur a commencé à encadrer l’usage des algorithmes.
Le cadre national aujourd’hui fixé résulte de la loi n° 2016-1321 du 7
octobre 2016 pour une République numérique, qui pose plusieurs
principes relatifs à l’usage des algorithmes pour l'aide à la décision
administrative. L’article L. 311-3-1 du code des relations entre le public et
l'administration (CRPA) créé par cette loi, dispose : « une décision
individuelle prise sur le fondement d'un traitement algorithmique
comporte une mention explicite en informant l'intéressé. Les règles
définissant ce traitement ainsi que les principales caractéristiques de sa
mise en œuvre sont communiquées par l'administration à l'intéressé s'il en
fait la demande ». Le décret n° 2017-330 du 14 mars 2017 relatif aux droits
des personnes faisant l'objet de décisions individuelles prises sur le
fondement d'un traitement algorithmique, pris pour l’application de la loi
sur ce point, ajoute au CRPA un article R. 311-3-1-2 précisant que
l’autorité administrative « communique à la personne faisant l'objet d'une
décision individuelle prise sur le fondement d'un traitement algorithmique,
à la demande de celle-ci, sous une forme intelligible et sous réserve de ne
pas porter atteinte à des secrets protégés par la loi, les informations
suivantes : 1° Le degré et le mode de contribution du traitement
algorithmique à la prise de décision ; 2° Les données traitées et leurs
sources ; 3° Les paramètres de traitement et, le cas échéant, leur
pondération, appliqués à la situation de l'intéressé ; 4° Les opérations
effectuées par le traitement ». Enfin la loi du 6 janvier 1978 modifiée par
l’ordonnance du 12 décembre 2018 prévoit en son article 47 2° une
transparence renforcée jusqu’à l’intelligibilité puisque, pour ces décisions,
« le responsable de traitement s'assure de la maîtrise du traitement
algorithmique et de ses évolutions afin de pouvoir expliquer, en détail et
sous une forme intelligible, à la personne concernée la manière dont le
traitement a été mis en œuvre à son égard ».
Ce cadre est conforme aux dispositions européennes en la matière. Le
RGPD accepte en effet que les décisions produisant des effets juridiques
à l'égard d'une personne ou l'affectant de manière significative puissent
[10]
Gilles J. Guglielmi [Link]
être prises sur le fondement d'un traitement automatisé de données à
caractère personnel en respectant certaines conditions. Tout d’abord, si
elles entrent dans l'une des hypothèses prévues par l'article 22.2 du RGPD,
notamment lorsque l'intéressé y a consenti a priori. A défaut ensuite, si elles
remplissent quatre conditions cumulatives : 1) mentionner expressément
ce traitement automatisé ; 2) traiter des données personnelles non
sensibles ; 3) que la décision puisse faire l’objet d’un recours administratif
garantissant une intervention humaine ; 4) que l’autorité administrative
prenant la décision communique les principes de fonctionnement de
l'algorithme utilisé.
On notera que ces principes européens, largement inspirés du droit
administratif global, donnent lieu, même au Royaume-Uni après le Brexit,
à une réception conforme à la culture juridique européenne. Le Central
Digital and Data Office (CDDO) a en effet publié en novembre 2021 un
standard de la transparence algorithmique destiné à aider les organismes
du secteur public à diffuser une information pertinente sur leurs
traitements algorithmiques et à le faire dans un format ouvert. Ce standard
est exprimé en format de données. Bien qu’il ne soit pas obligatoire, sa
mise en œuvre donne lieu à une remontée au CDDO et à une publication
dans une liste nationale. En France, Etalab ne pratique pas différemment.
Il faut ajouter enfin que, dans les procédures concernant l’information
des élus, l’usage de l’algorithme doit aussi permettre la transparence de
l’information. Ainsi, dans l’évaluation préalable obligatoire pour tout
projet de marché de partenariat, il convient d'apporter des précisions sur
les différents algorithmes de valorisation du risque utilisés et d’expliquer
de manière concrète et non agrégée les chiffres globaux soumis à
l'assemblée délibérante. A défaut, l’évaluation préalable ne justifie pas le
recours au partenariat et la délibération de la collectivité territoriale sera
annulée par le juge administratif (CAA Marseille, 6e ch., 27 déc. 2019,
19MA01714).
La tendance jurisprudentielle est donc fixée, la transparence
algorithmique est un préalable indispensable à tout traitement automatisé
de données qui constituerait une aide à la décision, intégrée de façon
formelle à l’élaboration d’un acte administratif (Il faudra toutefois réserver
[11]
Contrôle des algorithmes et droit du contentieux administratif français
le cas des algorithmes développés dans le cadre de la lutte contre les crimes
et délits, dont il est clair que la confidentialité est parfois une condition
essentielle d’utilisation : V. par ex. Degrave E., The Use of Secret
Algorithms to Combat Social Fraud in Belgium, European Review of Digital
Administration and Law, 2020, vol. 1, 1-2, p. 167). Son fondement peut être
de droit dur ou de droit souple, elle n’en demeure pas moins le point
d’entrée du contrôle en cas de recours administratif ou juridictionnel et
elle conditionne l’effectivité des garanties qui devraient être affirmées aux
particuliers visés par une décision issue d’un traitement algorithmique : le
droit à intervention humaine et le droit au paramétrage des critères de
fonctionnement (CNCDH, Avis n° A-2022-6 préc.).
1.2 Le contrôle de l’algorithme lui-même
(Le cadre général de ce contrôle est clairement exposé par Barbin, E., « Le
contrôle juridictionnel de l'outil numérique d'aide à la décision
administrative », RFDA 2021, p. 491)
Par contre, transparence de l’usage des algorithmes et de leur portée ne
signifie nullement transparence de l’algorithme lui-même, comme en
témoigne par exemple le cas du vote électronique, où les fabricants
d’ordinateurs et de logiciels de vote ont toujours refusé de divulguer les
codes sources et autres éléments couverts selon eux par des brevets ou par
le secret des affaires ; ou encore divers domaines d’expertise comme les
études d’impact acoustiques (CAA Bordeaux, 5e ch., 23 févr. 2021,
20BX00980 ; CAA Nancy, 4e ch., 26 janv. 2021, 20NC00876) ou
environnementales (CAA Nancy, 4e ch., 06 avril 2021, 19NC03514)
réalisées par des cabinets d’ingénieurs-conseils privés. Au demeurant,
même pour l’État, l’interprétation du juge administratif, par exemple en
cas de contrôle fiscal, est que l’autorité administrative « est tenue de
préciser, dans sa proposition de rectification, les fichiers utilisés, la nature
des traitements qu'elle a effectués sur ces fichiers et les modalités de
détermination des éléments servant au calcul des rehaussements, mais n'a
l'obligation de communiquer ni les algorithmes, logiciels ou matériels
[12]
Gilles J. Guglielmi [Link]
qu'elle a utilisés ou envisage de mettre en œuvre pour effectuer ces
traitements, ni les résultats de l'ensemble des traitements qu'elle a réalisés »
(CAA Paris, 2e ch., 22 sept. 2021, 20PA00654 ; CE, 8e-3e ch. réun., 04 mai
2018, n° 410950).
De même, le recours contre un traitement automatisé de données à
caractère personnel permettant le développement d’un algorithme peut
être la voie d’accès au contrôle par le juge d’une atteinte grave et immédiate
justifiant que l'exécution en soit suspendue au titre de l’art L. 521-1 CJA.
Toutefois, l’algorithme n’est que la modalité du traitement de données : il
faut donc que l’acte attaqué constitue en même temps une autorisation de
mise en œuvre de l’algorithme après son développement. Cela n’était pas
le cas dans l’affaire Datajust, où algorithme devait pourtant servir à la
réalisation d'évaluations rétrospectives et prospectives des politiques
publiques en matière de responsabilité civile ou administrative ; à
l'élaboration d'un référentiel indicatif d'indemnisation des préjudices
corporels ; à l'information des parties et à l'aide à l'évaluation du montant
de l'indemnisation à laquelle les victimes peuvent prétendre dans la
perspective d’un règlement amiable des litiges ; et enfin à l'information ou
à la documentation des juges appelés à statuer sur des demandes
d'indemnisation des préjudices corporels. Le dispositif, limité à deux ans,
a été jugé « expérimental » par le Conseil d’État (CE, ord. réf. 26 mai 2020,
n° 440378). On pourrait ajouter que l’algorithme n’aboutissait qu’à une
information et n’imposait aucun barème, ce qui rend difficile d’y voir une
atteinte portée aux intérêts propres des requérants.
Il a pu alors être avancé que l’algorithme, en tant que traitement
automatisé qui oriente les comportements et induit des normes internes
de valorisation des critères d’analyse des dossiers, relève du droit souple
(Conseil d'État, Le droit souple, Les rapports du Conseil d'État, Etude
annuelle 2013, p. 141 ; CE, 19 sept. 2014, Jousselin, n° 364385 ; AJDA
2014, p. 2262, concl. G. Dumortier ; CE Ass., 21 mars 2016, Société
Fairvesta International GmbH, n° 368082, n° 368083 et n° 368084, AJDA
2016, p. 717, chron.). En d’autres termes, l’ensemble de prescriptions
internes ainsi imposées par le contenu de l’algorithme autant que par son
paramétrage et par ses conditions d’application constitueraient des lignes
[13]
Contrôle des algorithmes et droit du contentieux administratif français
directrices (Boudinar-Zabaleta, A., « Algorithmes et lignes directrices.
Réflexions sur la codification automatisée des motifs des décisions
administratives », Dr. Adm. 2019, n° 4, étude n° 7). Si cette qualification
s’applique sans grande difficulté aux agents – qui ne sont pas placés dans
la même situation que des usagers tant au regard du recours contre les
mesures d’organisation du service qu’à celui de la nature des mesures que
leur auteur peut prendre –, elle est plus délicate s’agissant de traitements
algorithmiques appliqués aux usagers, dont les fondements juridiques
seront à la fois de valeur plus élevée et d’un contenu plus précis, en raison
de la protection des données personnelles impliquées.
La logique des réponses contentieuses du juge administratif est
cependant claire : l’algorithme lui-même n’est saisi que de façon indirecte,
comme un objet factuel soumis à certaines obligations de forme et de
procédure ou capable de produire des conséquences sur les intérêts en
présence. Il n’est pas un acte mais un instrument de la prise de décision.
Pour l’instant, il est dépourvu de toute autonomie dans la procédure
contentieuse : le juge administratif, par exemple, n’a pas accepté les
demandes d’expertise dans le contentieux des ordinateurs et logiciels de
vote et n’a pas jugé nécessaire d’entrer dans le contenu des algorithmes
dans les contentieux précédemment cités. Si un algorithme avait pour effet
de conduire à des décisions ne respectant pas les principes d’égalité et de
non-discrimination par exemple, il ne serait pas nécessaire de prouver le
biais technique, mais d’en constater statistiquement les effets. Déjà
aujourd’hui, si une autorité administrative se fonde sur les productions
d’un algorithme pour caractériser des faits menant à sa décision, il suffit
pour le juge que ces productions passent le test de la cohérence et de la
non-contradiction (CAA Paris, 9e ch., 11 févr. 2022, 20PA04263). Il s’agit
là en quelque sorte d’une boîte noire, dans laquelle les acteurs juridiques
n’ont pas d’intérêt à entrer. Il convient donc d’éviter de survaloriser
l’algorithme ou de le personnifier en lui attribuant une autonomie dans la
production juridique (sur cette tendance, V. Duclerq, J.-B., « Le droit
public à l'ère des algorithmes », RDP 2017, p. 1401 ; Barraud, B., « Les
algorithmes au cœur du droit et de l’État postmoderne », Revue Internationale
de droit des données et du numérique, 2018/4, p. 37-52). L’algorithme n’est pas
[14]
Gilles J. Guglielmi [Link]
le pendant électronique des êtres physiques dotés de sensibilité, du moins
pas tant que « l’IA forte » n’est pas devenue une réalité quotidienne.
2. Le contrôle juridictionnel des actes issus des algorithmes
Dans la mesure où l’usage d’algorithmes s’inscrit dans un processus de
production d’actes administratifs dont certains peuvent être des décisions,
deux théories classiques du contentieux administratif peuvent être a priori
mobilisées. La première concerne la place de l’algorithme dans le
processus ainsi que le chemin contentieux permettant de l’atteindre par un
recours : elle réside dans la théorie des opérations complexes. La seconde
concerne la façon dont l’auteur d’une décision administrative prend celle-
ci au vu des éléments de préparation aptes à la justifier : elle est soumise à
la règle de l’examen particulier des circonstances.
La théorie des opérations complexes, dont la méconnaissance est
d’ordre public (CE, 24 mars 1999, Commune de Grézillac, Rec. p. 971), est
une dérogation au principe d’irrecevabilité des exceptions d’illégalité
fondées sur une décision réglementaire devenue définitive. Lorsqu’il existe
une chaîne de décisions dont les premières sont les supports nécessaires
des dernières, la théorie des opérations complexes autorise l’utilisation de
l’exception d’illégalité de la décision initiale et des décisions intermédiaires
devenues définitives à l’appui du recours exercé contre la décision finale
tant qu’elle est attaquable. En sont des exemples classiques la phase
administrative de l’expropriation, les concours de recrutement d’agents
publics, et par assimilation le recouvrement des créances publiques ; mais
il en est de même de champs moins étendus comme les opérations de
conclusion d’un contrat ou de création de zones particulières d’urbanisme.
Dans l’hypothèse où serait caractérisée la production par l’algorithme de
décisions intermédiaires, nécessaires au processus et spécialement prises
en vue d’une décision finale, cette dernière constituerait le meilleur point
d’entrée du contentieux.
La règle de l’examen particulier des circonstances consiste en ce qu’une
autorité administrative ne puisse prendre une décision non-réglementaire
qu’à l’issue d’un examen effectif et exhaustif des données personnalisées
[15]
Contrôle des algorithmes et droit du contentieux administratif français
de chaque dossier (CE, 7 août 1920, Secrettant, Rec. p. 853). Les circulaires
comme les lignes directrices peuvent organiser l’exercice du pouvoir de
décision discrétionnaire, elles ne peuvent pas lui donner un fondement
impersonnel autorisant des décisions mécaniques ou stéréotypées. La prise
de décision à l’issue de processus comprenant l’usage d’algorithmes doit
donc garantir cet examen particulier. Or, il semble bien que ce soit le cas,
dès lors que l’algorithme intègre justement des données propres à chaque
affaire, qui permettent précisément de la distinguer d’affaires voisines. La
règle de l’examen particulier des circonstances est en effet une règle de
procédure et non de fond. En l’état actuel de la jurisprudence, elle oblige
à un « cas par cas », mais elle n’impose pas que l’examen de chaque cas soit
réalisé par un être humain, ni que des circonstances différentes dans deux
dossiers doivent aboutir à des décisions finales différentes. Par contre, le
fait que pour des situations apparemment identiques, la décision finale soit
différente peut se trouver justifié par cette règle. Il serait même possible
de dire que, dans une bonne mesure, l’usage d’algorithmes se situe
formellement à l’appui de la règle de l’examen particulier des
circonstances, pourvu bien sûr que leur conception informatique et leur
nourrissage en data soit exempt de biais.
C’est donc plus en amont qu’il convient de poser la réflexion sur le
contrôle juridictionnel des actes issus d’algorithmes. La question préalable,
parce qu’elle est évidemment le pendant de la numérisation de la décision,
est celle de l’auteur de l’acte (1). La question centrale, parce qu’elle
interroge leur qualification normative, est celle de la nature même de la
décision administrative issue de traitements algorithmiques (2).
2.1 L’auteur de l’acte pris à l’aide d’algorithmes
Dans la plupart des hypothèses envisagées et documentées en l’état de
la technique, l’intégration des algorithmes au processus de décision n’est
pas telle que la décision soit la résultante d’un processus entièrement
automatisé, dépourvu d’intervention humaine, finalement endossée par
l’autorité administrative compétente.
[16]
Gilles J. Guglielmi [Link]
L’auteur de la décision administrative, acte juridique accessible au
recours, demeure très majoritairement l’autorité compétente pour prendre
l’acte. La production de l’algorithme est une simple étape d’élaboration de
la décision. Tout dépend donc du résultat que livre l’algorithme. S’il s’agit
de résultats élémentaires, de sélection fondée sur des probabilités et des
statistiques, de la mise en place de contrôle ou de l’instruction du dossier,
il faut considérer les algorithmes et leurs productions comme des actes
préparatoires.
Mais si les algorithmes formalisent la décision finale elle-même, le
processus peut s’apparenter à une consultation. Toutefois, à la différence
du schéma classique de cette dernière procédure, l’autorité administrative
n’a pas vraiment présenté un projet initial de décision. De plus, si l’autorité
administrative s’écarte de l’avis produit par un logiciel, sa légitimité se
trouvera très affaiblie par rapport à la puissance résultant des calculs
exploratoires de l’algorithme. Il faudrait alors considérer que le résultat de
la production algorithmique constitue une proposition, et que l’autorité
administrative n’a pas d’autre alternative que de prendre la décision ou
bien d’y renoncer. Et encore, dans cette configuration, lorsque
l’algorithme a été appliqué à une demande formée par un pétitionnaire,
faudrait-il envisager les cas prévus par les textes où l’absence de réponse
vaut acceptation…
Le formalisme du droit administratif peut être respecté et il est
respectable. Mais dans la réalité de ce dernier cas, tout se passe exactement
comme si, au bout du compte, c’est bien l’algorithme qui prenait la
décision : il en élabore le contenu par comparaison avec des bases de
données et par des tests itératifs, en évaluant les conséquences et les
risques. On pourrait donc voir une fiction juridique dans le fait de
considérer l’autorité administrative compétente comme auteur de l'acte
administratif édicté sur le fondement d'un algorithme (Pauliat, H., « La
décision administrative et les algorithmes : une loyauté à consacrer », RDP
2018, p. 646). Cette fiction est d’autant plus forte que l’autorité
administrative n’est pas non plus l’auteur de l’algorithme. Dans la plupart
des cas, en effet, l’autorité administrative a recours, pour l’élaboration et
la fourniture de ces logiciels, à des opérateurs privés, suivant des formules
[17]
Contrôle des algorithmes et droit du contentieux administratif français
contractuelles qui peuvent laisser subsister la propriété intellectuelle de
l’algorithme à l’entreprise fournisseuse. Certains analystes y voient un
affaiblissement des compétences régaliennes des autorités administratives
(Duclerq, J.-B., « Les effets de la multiplication des algorithmes
informatiques sur l'ordonnancement juridique », Communication Commerce
électronique n° 11, nov. 2015, étude 20). Un de plus, pourrait-on dire, d’un
degré peut être différent, mais d’une nature identique à celui constaté
récemment par la multiplication des marchés confiant aux grands cabinets
de conseil internationaux des activités ressortissant traditionnellement du
travail des cabinets ministériels et des directions d’administration centrale.
Mais on peut aussi identifier à cette occasion la promotion d’une quasi-
normativité des algorithmes, une forme de droit souple, au profit de ces
opérateurs (Marique, E., Strowel, A., « Gouverner par la loi ou les
algorithmes : de la norme générale de comportement au guidage
rapproché des conduites », Dalloz IP/IT, n° 10, 2017, p. 517).
2.2 La décision administrative issue d’un traitement
algorithmique
(Pour une vision d’ensemble, V. Cluzel-Métayer, L., « The Judicial Review
of the Automated Administrative Act », European Review of Digital
Administration and Law, 2020, vol. 1, 1-2, p. 101)
Une première question possible est celle de savoir si la décision
administrative finale résulte véritablement de la volonté de son auteur
(Auby, J.-B., « Le droit administratif face aux défis du numérique », AJDA
2018, p. 835). Si en effet un acte juridique est un acte manifestant la
volonté de son auteur de produire des effets de droit, encore faut-il qu’il
existe un lien direct entre l’auteur et l’acte, ou en d’autres termes que l’acte
soit imputable à son auteur. Une réponse peut être tentée en éliminant
d’abord la grande majorité des cas où les algorithmes constituent, en cours
de procédure, une aide à la décision, mais où il est patent qu’ils ne
produisent pas une décision formalisée, précise et particulière. Il s’agit par
exemple des secteurs où sont utilisés des algorithmes prédictifs. En
revanche, lorsque la production de l’algorithme consiste en une affectation
[18]
Gilles J. Guglielmi [Link]
à une institution, en une attribution de subsides ou de prestations en
nature, qui plus est, à terme, au moyen d’algorithmes auto-apprenants dont
la traçabilité du raisonnement n’est plus vraiment réalisable, la volonté de
l’auteur n’est pas, en fait, exprimée en même temps que se concrétise le
contenu de la décision.
Cela ne signifie pas pour autant que cette volonté n’existe pas. En effet,
il est possible de considérer que cette volonté a été exprimée par
anticipation, dès lors que l’autorité administrative a pris, par une mesure
d’ordre intérieur, une décision d’organisation des services qui consiste à
appliquer un algorithme dont on sait que, par construction, il conduit sans
autre intervention humaine à la formulation complète d’une décision
précise et individualisée. C’est la raison pour laquelle, même lorsque
l’algorithme produit une décision finale quasi-automatique, il n’est pas
nécessaire de se lancer dans une révision du cadre de définition de l’acte
administratif pour le fondre dans une notion plus floue de « mode
opératoire » (Ce que préconise Plessix, B., Droit administratif général,
LexisNexis, 2020, n° 1008).
L’existence de la décision et sa légalité ne sont donc pas menacées, mais
il va de soi que l’autorité administrative doit alors assumer les
conséquences de ses choix en termes de responsabilité si l’application des
algorithmes mène à des décisions inappropriées et dommageables, ou
irrégulières. Par ailleurs, le statut de cette décision de recourir de manière
générale et impersonnelle à une procédure de production d’actes
administratifs formalisés au stade final par l’algorithme seul est délicat. Il
s’agit par nature d’une décision réglementaire, qui est aussi interne et relève
de l’organisation du service. Force est de constater toutefois que dans la
plupart des cas, en raison du régime juridique applicable aux données
traitées (ou au traitement de données), ces décisions sont fondées sur un
arrêté et un décret qui les autorisent.
Mais au-delà de la forme, il ne faut pas négliger que ces actes, choisissant
des algorithmes de décision et constituant une partie de la base légale de
la décision finale, ont un contenu réglementaire qui ne se limite peut-être
pas à des procédures et prescriptions voulues par l’autorité administrative
compétente pour prendre la décision. Tout comme D.W. Schartum
[19]
Contrôle des algorithmes et droit du contentieux administratif français
identifie dans la numérisation de la législation et le développement des
systèmes de production automatisé de ses décisions d’application (« Law
and algorithms in the public domain », Etikk i praksis. Nord J Appl Ethics
2016, p. 15-26. Disponible sur :
[Link] consulté le 2 juin 2022) un
niveau normatif caché, il apparaît que la constitution d’une catégorie
d’experts informaticiens de la décision produit une interprétation propre
de concepts qui passent ainsi du langage juridique au langage naturel puis
au langage informatique.
Au passage, c’est donc une multitude de micro-normes implicites qui
s’ajoutent aux prescriptions législatives et qui peuvent aboutir à ignorer
l’illectronisme (« illettrisme numérique ») et à méconnaître tant
l’accessibilité que l’égalité d’accès au service public, ce qui ne saurait être
accepté de la part des autorités administratives. Le Conseil d’État a dû le
rappeler fermement en posant qu’il incombe au pouvoir réglementaire,
« lorsqu’il impose le recours à un téléservice pour l’obtention de certains
titres de séjour, de prévoir les dispositions nécessaires pour que
bénéficient d’un accompagnement les personnes qui ne disposent pas d’un
accès aux outils numériques ou qui rencontrent des difficultés soit dans
leur utilisation, soit dans l’accomplissement des démarches
administratives ». A défaut qu’elles parviennent ainsi à un accès effectif, il
faudra de toute façon « garantir la possibilité de recourir à une solution de
substitution, pour le cas où certains demandeurs se heurteraient, malgré
cet accompagnement, à l’impossibilité de recourir au téléservice pour des
raisons tenant à la conception de cet outil ou à son mode de
fonctionnement » (CE Sect., 3 juin 2022, n° 452798, 452806, 454716,
Conseil National des Barreaux ; V. aussi CE Avis, 3 juin 2022, n° 461694,
461695, 461922, La Cimade et autres).
La plus radicale des décisions implicites, celle qui consiste à rendre
impossible l’expression de la demande sous prétexte d’un système unique
de collecte des données destiné à favoriser leur traitement automatisé, est
donc exclue.
[20]
Gilles J. Guglielmi [Link]
Conclusion
Les algorithmes peuvent ainsi être présentés comme insérés dans un
ensemble normatif ou dans une autre approche appartenir à la catégorie
du droit souple. Dans les deux cas, leur soumission au principe de légalité
ne fait pas de doute, mais les modalités permettant de délimiter leurs
contours et d’analyser la voie contentieuse pour les atteindre sont subtiles
et encore à baliser.
Or, ce point est crucial puisque l'usage des algorithmes par les autorités
administratives, tant dans des activités de prestation que de contrôle, ne
pourra que s’amplifier dans la « Transformation publique », et ce selon
deux axes. D’abord, les algorithmes semblent l’outil numérique le plus
attractif pour les gestionnaires publics dans les situations de crise (V. à ce
sujet la terrifiante perspective adoptée par Guillotin, V., Lavarde, C. et
Savary, R.-P., Rapport d'information au nom de la délégation sénatoriale à la
prospective sur les crises sanitaires et outils numériques, Répondre avec efficacité pour
retrouver nos libertés, Sénat, session ordinaire 2020-2021, n° 673, 3 juin 2021).
Ensuite ils s’insinuent dans les contacts quotidiens et répétitifs entre les
particuliers et les autorités administratives. Indépendamment de la
complexification et de l’accroissement de la densité normative qui en
résulte et porte en germe des restrictions d’accès, de liberté et des atteintes
potentielles aux droits fondamentaux produites par un contrôle total des
corps et des comportements (comme dans le scoring social ou la
reconnaissance biométrique généralisée dans les espaces publics), s’y
ajoute le fait que les outils logiciels ou de communication utilisés
conduisent les personnes publiques à recourir quasi exclusivement à des
opérateurs privés pour la plupart de ces activités. La relation avec les
particuliers s’en trouve fortement déséquilibrée au profit des autorités
administratives qui maîtrisent et imposent des procédures de plus en plus
contraignantes et intrusives, jusqu’à risquer de favoriser l'arbitraire par des
décisions parfaitement préparées mais ne permettant aucune adaptation
humaine.
Trois enjeux semblent orienter dorénavant l’avenir de la décision
administrative lorsqu’elle s’appuie sur des algorithmes. Celui de la sécurité
juridique, tout d’abord, qui commande que les outils numériques soient
[21]
Contrôle des algorithmes et droit du contentieux administratif français
suffisamment fiables pour fonder des décisions prévisibles sans mettre à
mal la confiance légitime des citoyens à l’égard des autorités publiques.
Ensuite, celui de la réparation des dommages éventuellement causés par
les algorithmes, grâce à un contrôle juridictionnel et à des principes
d’indemnisation adéquats. Celui, enfin - question problématique à ce stade
- du degré d’approfondissement du contrôle du juge administratif
traditionnellement rétif à entrer dans les considérations d’expertise, au
moment même où de développe, par le biais de l'éthique préventive, une
conception régulatrice qui, dans ses arrangements, ne donne pas au droit
administratif la valeur supérieure qui doit être la sienne pour encadrer
toute l’activité administrative de la puissance exécutive, et constituer un
gage essentiel de l’effectivité de la démocratie.
[22]