|
Noam Sohlberg Vice-président
|
Juge Ofer Grosskopf :
Je suis d'accord.
|
Ofer Grosskopf Juge
|
Juge Gila Kanfi-Steinitz :
Je partage le jugement de mon collègue, le Vice-Président c. Solberg. Mon collègue a décrit les défaillances survenues dans la conduite de la municipalité, et son jugement pose un signal d'alerte quant à la manière dont les autorités administratives utilisent les systèmes d'intelligence artificielle. En effet, de nombreux avantages peuvent découler de l'utilisation d'outils d'intelligence artificielle par les autorités administratives – tant pour améliorer le service au citoyen que pour économiser les ressources publiques. Cependant, en plus de ces avantages, mon collègue a justement souligné le danger inhérent à cette période d'une dépendance aveugle à cette technologie.
Compte tenu du rythme rapide de développement des outils d'intelligence artificielle et des changements qu'ils devraient apporter dans la fonction publique, je souhaitais faire quelques commentaires sur les défis posés par la prise de décision utilisant les outils d'intelligence artificielle, du point de vue du droit administratif.
- Premièrement, il semble qu'il existe un grand fossé entre la soumission de décisions judiciaires reposant sur des références inexistantes, résultat de « l'hallucination » de l'intelligence artificielle, et l'adoption d'une décision administrative basée sur ces outils. Mon collègue, le vice-président Sohlberg, a attribué l'échec administratif à l'arbitraire, mais il semble que dans certains cas, le problème puisse remonter à la racine même de l'autorité. Après tout, plus d'une fois, nous sommes d'accord qu'il s'agit d'une règle fondamentale qu'une autorité n'a pas le droit de dissoudre à sa discrétion ou de déléguer une autorité sans autorisation explicite (Haute Cour de justice 2303/90 Filipovich c. Registrar of Companies, IsrSC 46(1) 410, 420 (1992) (ci-après : l'affaire Filipovich) ; Baruch Bracha, Droit administratif, 2, 154 (1996)). Dans cette optique, certains soulignent que l'intégration des systèmes d'intelligence artificielle dans le processus décisionnel remet en cause cette interdiction, car en pratique, les décisions individuelles, et même celles relatives à la formulation de la politique générale, sont « déléguées » à l'algorithme et implicitement aux fournisseurs privés qui le développent (Deirdre K. Mulligan & Kenneth A. Bamberger, Achats comme politique : processus administratif pour l'apprentissage automatique, 34 Berkeley Tech. L.J. 773 (2019) (ci-après : Mulligan & Bamberger) ;Danielle Keats Citron, Procédure Régulière Technologique, 85 Wash. U. L. Rév. 1249, 1296-97 (2008) (Citron).
- En effet, il est possible que l'utilisation d'outils d'intelligence artificielle soit réalisée avec leur aide et rien de plus – une assistance qui doit aussi être prudente et contrôlée – sans que l'autorité administrative ne soit démantelée de son jugement professionnel (et comparer : Haute Cour de Justice 38379-12-24 Anonymous c. Cour d'appel de la charia, Jérusalem, paragraphe 26 [Nevo] (23 février 2025) (ci-après : l'affaire Anonymous)). Cependant, la situation change lorsque la prise de décision elle-même est transférée à l'outil d'IA. Dans cette situation, il n'est plus possible de considérer l'utilisation du système comme une simple « assistance technique », une sorte d'utilisation d'une calculatrice, d'une base de données ou d'un outil de rédaction (pour en savoir plus sur la distinction entre délégation, assistance et consultation, voir : Filipovich, aux pages 422-424 ; Dafna Barak-Erez, Administrative Law, 1, 178-180 (2010)), mais plutôt comme déplacer le centre de gravité de l'exercice du jugement de l'être humain vers les outils de l'intelligence artificielle. Transférer la décision à une intelligence artificielle qui exerce une sorte de « discrétion » propre peut dans certains cas constituer une dissolution inappropriée de la marge discrétionnaire ou une délégation interdite.
Ainsi, par exemple, l'affaire devant nous s'est produite, dans laquelle l'ISA a fondé sa décision sur une circulaire du Directeur général inexistante, résultat de « l'hallucination » de l'intelligence artificielle, tout en se référant à ses différentes sections et en s'appuyant sur des « citations » détaillées de cette circulaire inventée. Il ne peut être contesté que si la décision avait été prise par une entité humaine, le résultat de la procédure administrative aurait été complètement différent. De plus, si la décision avait été rendue à l'appelant sans les détails qui en découlaient, il est possible qu'il n'aurait pas pu comprendre l'échec à sa base.
- Afin d'éviter une dissolution inappropriée de l'autorité et de la discrétion de l'autorité administrative, mon collègue détermine, à juste titre, que les organes administratifs doivent exercer un contrôle humain sur le produit du système et l'examiner avant de prendre une décision. L'esprit de cette approche, connu sous le nom de « l'humain dans la boucle », est également utilisé dans les systèmes juridiques parallèles (voir, par exemple, l'article 22 du Règlement général sur la protection des données de l'Union européenne ; pour en savoir plus sur les approches réglementaires adoptées en droit comparé, voir Ben Green, The Flaws of Policies Requiring Human Oversight of Government Algorithms, 45 L. & Sec. Rév. 1, 4-7 (2022) (ci-après : Vert) ; Aziz Z. Huq, Un droit à une décision humaine, 106 Va. L. Rév. 611, 620-27 (2020)).
En effet, la supervision humaine peut, entre autres, accroître la responsabilité et, dans certains cas, améliorer la qualité et la précision des produits du système (le ministère de l'Innovation, de la Science et de la Technologie et le ministère de la Justice). Politiques, principes réglementaires et éthiques dans le domaine de l'intelligence artificielle 55-56 (2023) (ci-après : Document de politique et de réglementation de l'intelligence artificielle)). Cependant, la littérature actuelle montre qu'une exigence de supervision humaine, en soi, est loin d'offrir une protection adéquate contre les défaillances ou erreurs de l'IA ; et met en garde contre l'ajout d'un facteur humain à la chaîne décisionnelle, sans prendre en compte la complexité de l'interface entre les humains et les outils d'intelligence artificielle (voir l'article auquel mon collègue a fait référence : Rebecca Crootof, Margot E. Kaminski & W. Nicholson Price II, Les humains dans la boucle, 76 Eau. L. Rév. 429 (2023). Voir aussi : Citron, aux pages 1271-1277 ; Vert, aux pages 7-11). Par exemple, cette interface souffre souvent de biais cognitifs qui remettent en cause l'efficacité de la supervision. Certains superviseurs humains ont tendance à trop s'appuyer sur les résultats du système au lieu d'exercer un jugement indépendant (un phénomène appelé « biais d'automatisation »).Biais d'automatisation)). D'un autre côté, les études indiquent une tendance irrationnelle à reporter une décision prise par un système d'intelligence artificielle, même en l'absence de justification (un phénomène connu sous le nom d'aversion algorithmique).Aversion algorithme); Pour en savoir plus sur ces biais, voir : Marina Chugunova & Daniela Sele, Nous et elle : une revue interdisciplinaire des preuves expérimentales sur la manière dont les humains interagissent avec les machines, 99 J. Comportez-vous. & Exp. Économie. 1, 8-9 (2022); Document de politique et de réglementation de l'intelligence artificielle, p. 57-58). Il convient également de noter que l'implication humaine, qui se fait sans les moyens et les connaissances nécessaires, manque souvent d'une réelle capacité à identifier et corriger les erreurs ou biais de l'intelligence artificielle. Dans d'autres cas, cela peut même nuire à la qualité du produit obtenu par l'intelligence artificielle et compenser ses avantages (Document de politique et de réglementation de l'intelligence artificielle, p. 57-56; Vert, à la p. 8 ; Amit Haim, L'État administratif et l'intelligence artificielle : vers un droit interne des algorithmes administratifs, 14 UC Irvine L. Rév. 103, 142 (2024)).
- À la lumière de ces réflexions, présentées en résumé, il faut veiller à ne pas interpréter le modèle « homme en boucle » comme une simple qualification pour une supervision humaine formelle. Il est clair que seule la supervision et l'examen passif des produits du système ne doivent pas être satisfaits, et qu'une implication plus significative de la part de l'Autorité devrait être exigée, au-delà de l'obligation exigée par mon collègue. Cette obligation accrue ne se compose pas d'une seule pièce, et elle peut être prise en charge et simplifiée selon la nature de la décision administrative et les caractéristiques du système utilisé. Sans épuisement, cette implication peut exprimer, entre autres, une utilisation éclairée incluant une connaissance suffisante des avantages, des lacunes et des limites du système ; Et plus important encore – la compétence et l'autorité de rejeter ses recommandations dans les cas appropriés (et comparer : État c. Loomis, 881 N.W.2d 749, 768-70 (Wis. 2016) ; Green, aux pages 6-7). Elle peut imposer l'obligation de surveiller continuellement les produits résultants, tout en les examinant de manière critique, notamment dans la manière dont ils sont comparés à des décisions humaines similaires. En particulier, en ce qui concerne les questions ayant un réel impact sur l'individu, comme dans notre cas. Il est possible que cette implication commence aux étapes de la conception du système et du processus d'apprentissage – tout en adaptant ses caractéristiques aux règles du droit administratif (voir : Mulligan & Bamberger, p. 773). Enfin, il est approprié qu'avant la mise en œuvre des systèmes, les autorités étatiques mènent une procédure préliminaire dans laquelle elles examineront si la décision requise est effectivement appropriée pour l'utilisation d'un modèle d'intelligence artificielle ; et si le modèle spécifique est suffisamment fiable et approprié dans ses caractéristiques pour aider à prendre cette décision (et pour les considérations nécessaires à cet égard, voir : Citron, pp. 1303-1304 ; Green, aux pages 11-15). Bien sûr, ces conclusions doivent être réitérées de temps à autre à la lumière des évolutions technologiques et des outils disponibles.
- Ces commentaires sont loin d'épuiser la gamme des défis et considérations fondamentaux qui devraient être pris en compte lors de l'utilisation des outils d'intelligence artificielle par l'administration publique. Ces mots rappellent les questions qui occuperont sûrement les autorités administratives plus tard, ainsi qu'aux règles qui seraient bonnes si elles étaient conçues « talon sur le côté du pouce ». Il va sans dire que l'interface professionnelle appropriée entre les humains et l'intelligence artificielle dépend des circonstances. Elle doit être conçue avec toute l'attention, le soin et en tenant compte des changements technologiques fréquents qui caractérisent cette technologie. Il n'est pas non plus impossible qu'au vu du rythme accéléré du développement technologique, les moyens détaillés ci-dessus deviennent un jour obsolètes, et que les obligations substantielles imposées à l'Autorité soient satisfaites de manière alternative que nous ne connaissons pas encore. Comme j'ai eu l'occasion de le souligner dans un autre cas – « Nous devons prendre en compte la possibilité que les préoccupations que nous devons traiter aujourd'hui recevront avec le temps une réponse technologique satisfaisante ; et que les règles sont appropriées pour cette période, elles céderont la place à des règles plus actuelles et appropriées » (L'affaire Anonyme, paragraphe 26).
Pour l'instant, cependant, l'adoption des outils d'IA nécessite « Faire un usage responsable, prudent et critique de cette technologie, comprendre en profondeur ses capacités et ses limites, et être mis à jour de temps en temps sur ses faiblesses et ses forces » (עניין Anonymeau paragraphe 26). Ces mots, prononcés en lien avec les devoirs des avocats, sont d'autant plus appropriés lorsqu'il s'agit des autorités d'État.