Caselaws

Requête en appel/Demande administrative 63194-08-25 Nevo Ben Cohen c. Municipalité de Ramat Gan - part 3

mars 22, 2026
Impression

Utilisation incontrôlée de l'intelligence artificielle dans la relation entre le citoyen et l'autorité administrative

  1. L'une des principales raisons de l'augmentation du devoir d'équité imposé aux autorités administratives est les écarts de pouvoir dramatiques qui existent entre l'autorité et le citoyen :

« L'individu et le gouvernement ne sont pas des droits égaux, ils ne sont pas égaux au pouvoir, et ils ne sont pas égaux en statut.  [...] Le gouvernement détient en ses mains beaucoup de pouvoir, beaucoup de pouvoir et beaucoup de richesse, jusqu'à ce que l'individu – peu importe  la taille de son pouvoir, de sa puissance et de sa richesse – ne lui égale ni ne lui ressemble plus.  [...] Le devoir d'équité que le gouvernement doit envers les individus de la société découle du pouvoir excessif que détient le gouvernement, du pouvoir du gouvernement, car il est grand.  Le devoir d'équité est destiné à servir – aux côtés d'autres moyens de frein au pouvoir et de contrainte au pouvoir » (HCJ 164/97 Contram in Tax Appeal  c. Ministry of Finance, Customs and VAT Division, IsrSC 52(1) 289, 367-368 (1998) ; voir aussi ibid., pp. 317-318 ; voir aussi : Yitzhak Zamir, The Administrative Authority, vol. 3, 1634 (2014) ; Dafna Barak-Erez, Administrative Law,  Vol. 1, 276 (2010)).

  1. Cette logique implique que l'utilisation incontrôlée de l'intelligence artificielle, comme dans ce cas, est encore plus sévère lorsqu'elle se produit dans la relation directe entre l'autorité et le citoyen. Ainsi, lorsque cette utilisation est faite dans le cadre d'une procédure judiciaire, deux parties interviennent, au moins dans une certaine mesure, des disparités de pouvoir entre les parties – l'avocat du citoyen et le tribunal.  Dans le contexte en question, l'importance de cela réside dans le fait que même si une telle utilisation de l'intelligence artificielle constitue une violation grave d'un devoir procédural imposé aux parties, comme détaillé ci-dessus, la probabilité que cela ait un impact réel sur l'issue de la procédure n'est pas relativement élevée.  Cela s'explique par le fait qu'on peut supposer, dès la première étape, que l'avocat prêtera attention à la question de la tromperie – c'est-à-dire ces références et affirmations qui ne proviennent pas du droit, mais des « hallucinations » de l'intelligence artificielle – et portera la question à l'attention du tribunal ; Et il est certainement raisonnable que, dans la deuxième étape, même si l'avocat « manque » ces échecs, le tribunal se tournera vers eux et statuera conformément à la loi, sans que cette tromperie n'affecte sa décision.
  2. En revanche, dans la relation directe entre l'autorité et le citoyen, ces hypothèses concernant les obstacles pouvant limiter l'impact pratique de l'utilisation incontrôlée de l'intelligence artificielle n'existent pas. Lorsqu'un citoyen reçoit une décision d'une autorité administrative qui semble raisonnée et fondée sur des raisons juridiques et des références, dans la plupart des cas, il est incapable d'y réfléchir, et certainement pas de découvrir par lui-même que ces raisons ne sont rien d'autre que le produit de l'imagination d'un système d'intelligence artificielle.  Ainsi, contrairement au cas d'utilisation incontrôlée de l'intelligence artificielle dans le cadre d'une procédure judiciaire, dans l'interaction directe entre l'autorité et le citoyen, une telle utilisation peut certainement avoir un impact réel sur la situation du citoyen.  En fait, à la lumière de ce qui précède, il est raisonnable de supposer que, dans la plupart des cas, la décision de l'Autorité restera valable, et que le citoyen l'acceptera, même sans savoir qu'il a été lésé.  La probabilité de cela est inversement proportionnelle au niveau de conscience, de capacité et de ressources du citoyen à s'attaquer à la décision de l'autorité, de sorte que ce sont les citoyens ayant le moins de conscience et de ressources qui sont censés être les plus lésés.
  3. Cela signifie que l'utilisation incontrôlée de l'intelligence artificielle par l'autorité dans ses relations directes avec le citoyen est d'un degré excessif et particulier de sévèrité. Cela s'ajoute au fait que ce genre de comportement implique également une violation de devoirs supplémentaires imposés aux autorités administratives.  Ainsi, par exemple, une décision fondée principalement sur des « hallucinations » d'intelligence artificielle est une décision très difficile à voir comme une décision qui remplit le devoir de raisonnement (pour la difficulté générale à expliquer et raisonner, concernant les décisions issues d'un système d'intelligence artificielle, voir, par exemple : Hofit Wasserman-Rosen, « To It and Its Thorn : The Right to Informationality of Artificial Intelligence Systems », Mishpat, Society and Culture, 8, 215 (2025)).
  4. De plus, et en plus de ce qui précède, il y a des raisons de penser qu'une telle décision est, en règle générale, arbitraire. Comme l'a bien exprimé le juge Shamgar, l'arbitraire est « un acte commis par une autorité, sans tenir compte des faits et des raisons qui lui sont présentés, en s'appuyant uniquement sur son pouvoir gouvernemental.  Ce n'est pas la fraude qui domine l'acte d'arbitraire, mais plutôt le manque de considération et d'attention » (Haute Cour de Justice 376/81 Lugasi c. Ministre des Communications, IsrSC 36(2) 449, 460 (1981) ; voir aussi : Appel de la requête/Réclamation administrative 1930/22  Jerusalem Open House for Pride and Tolerance c. Municipalité de Jérusalem, paragraphe 39 du jugement de mon collègue, le juge Grosskopf [Nevo] (11 octobre 2023) ; Pour une définition similaire de l'arbitraire, qui fait référence à la conduite des autorités d'application dans le domaine du droit pénal, voir : Criminal  Appeals Authority 1611/16 State of Israel c. Vardi, par. 71 et les références [Nevo] (31 octobre 2018)).  Il est clair qu'à l'heure actuelle, une décision qui repose « aveuglément » sur un système d'intelligence artificielle relève d'un ensemble de décisions prises sans prise en compte ni attention aux considérations et données pertinentes, et en fait, il s'agit même d'une décision qui peut même être prélevée que, en essence, aucune discrétion n'a été exercée à son égard ; Par conséquent, cela tombe facilement sous l'aile de la cause de l'arbitraire.  Cela est encore renforcé compte tenu du lien étroit entre arbitraire et absence de raisonnement (pour cela, voir, par exemple : Haute Cour de justice 6728/06 Ometz (Citoyens pour une bonne administration et justice sociale) c. Premier ministre d'Israël, paragraphes 14-18 de l'avis du juge Naor [Nevo] (30 novembre 2006) ; Haute Cour de Justice 143/56 Ahjij c. Superviseur de la Circulation, IsrSC 11 370, 372 (1957)).

Je suis d'avis que des conclusions pratiques peuvent être tirées de ces conclusions à deux niveaux.

  1. Premièrement, l'aspect des devoirs positifs qui s'appliquent aux autorités administratives en ce qui concerne l'utilisation de l'intelligence artificielle. Évidemment, ce n'est pas le lieu pour une discussion exhaustive – ni même proche – sur ce sujet. N'oublions pas que nous traitons un appel concernant  les frais juridiques.  Cependant, il me semble qu'il est possible d'extraire de cette affaire quelques éclairages préliminaires sur cette affaire, avec une vision prospective.
  2. Une idée est que tant que le niveau de fiabilité des systèmes d'intelligence artificielle reste incertain, puisqu'ils restent parfois « illusoires », il n'est pas possible d'accepter une situation où une autorité administrative s'éloigne de sa discrétion et base sa décision exclusivement, ou presque exclusivement, et sans aucun contrôle, sur la production de ces systèmes (l'exigence d'implication humaine dans certains processus décisionnels, avec un accent particulier sur les décisions des autorités administratives, Elle est souvent évoquée dans la littérature comme une exigence pour « l'humain dans la boucle » – une exigence qui peut s'appliquer à la fois à l'étape de la prise de décision et aux premières étapes de la conception d'algorithmes et de l'entraînement des systèmes ; dans ce dernier contexte, voir : Niva Elkin-Koren et Maayan Perl, « Intelligence artificielle : technologies disruptives dans le droit israélien », Mishpat, Society and Culture 8, n° 11, 22 (2025)).  C'est particulièrement vrai lorsqu'il s'agit  d'une décision substantielle, qui a un réel impact sur le citoyen (pour une analyse de divers aspects de cette question, avec ses nombreuses complexités et les nombreux défis qu'elle soulève, voir par exemple : Rebecca Crootof, Margot E.  Kaminski & W.  Nicholson Price II, Les humains dans la boucle, 76   L. Rév.  429 (2023) ; Ryan Calo & Danielle Keats Citron, L'État administratif automatisé : une crise de légitimité, 70 Emory L.  J.  797 (2021) ; Amit Haim, L'État administratif et l'intelligence artificielle : vers un droit interne des algorithmes administratifs, 14 UC Irvine L.  Rév.  103 (2024) ; Ministère de l'Innovation, des Sciences et de la Technologie et Ministère de la Justice Principes de politique, de réglementation et d'éthique dans le domaine de l'intelligence artificielle 53-59 (2023) (ci-après :  Document de politique et de régulation dans le domaine de l'intelligence artificielle).
  3. Ainsi, même si, dans le cadre de la formulation et de la rédaction de la décision, les responsables administratifs sont assistés par un système d'intelligence artificielle – et comme mentionné, il n'y a rien de mal à cela en soi – ils doivent surveiller, examiner et vérifier. Cela est vrai tant pour l'exercice du pouvoir d'escrivancissement, que pour le raisonnement sous-jacent à la décision (je souligne que ce qui précède ne constitue pas une expression de position sur la question de savoir si, même dans des contextes où le niveau de fiabilité des systèmes d'intelligence artificielle sera très élevé, voire supérieur à celui des professionnels humains, les autorités administratives pourront prendre des décisions sans intervention humaine, en particulier dans des questions ayant un impact significatif sur la vie des citoyens ; une autre vision pour l'avenir).
  4. Un autre aspect qui peut être déduit de la discussion susmentionnée et des circonstances de l'affaire concerne l'exigence de divulgation concernant l'utilisation de l'intelligence artificielle. Une telle exigence n'a pas encore été inscrite dans notre système juridique, mais il semble qu'il y ait certainement une logique à établir un tel devoir, du moins dans certains contextes, où l'impact sur le citoyen peut être important.  Une raison centrale est qu'une telle divulgation pourrait aider un peu à réduire les disparités de pouvoir que j'ai évoquées plus haut, afin que le citoyen dans le cas duquel une décision a été prise grâce à l'intelligence artificielle puisse au moins en être conscient, ce qui améliorera légèrement sa capacité à planifier ses démarches en conséquence, à examiner la justesse de la décision, et peut-être même à en obtenir une augmentation dans les voies appropriées (voir et comparer : Document de politique et de régulation dans le domaine de l'intelligence artificielle, pp. 63-66, 85-86 ; Pour une analyse complète de la question de la divulgation et de la transparence, dans le contexte de l'utilisation de l'intelligence artificielle par les autorités, voir : Dalit Kan-Dror Feldman, Or Sadan, Racheli Edri-Hulta, et Uri Szold, « Transparency in the Age of Artificial Intelligence : Israeli Law », Mishpat, Society and Culture, 8 (2025)).  Quoi qu'il en soit, il est clair que je ne pose pas de rivets, et ces mots sont prononcés sous forme de reflets, avec un regard tourné vers l'avant.
  5. Le deuxième niveau sur lequel les conclusions pratiques peuvent être tirées de la discussion ci-dessus concerne la portée du contrôle judiciaire et la question du recours. Comme il est bien connu, la portée du contrôle judiciaire de l'action d'une autorité administrative, ainsi que le recours accordé pour un défaut survenu dans celle-ci, sont étroitement liés à la nature et à la nature du défaut.  Je suis d'avis que l'utilisation incontrôlée de l'intelligence artificielle par l'autorité dans le cadre de sa relation directe avec le citoyen ouvre la porte à un contrôle judiciaire plus strict et plus strict, et peut justifier, en règle générale, un remède significatif.  La première raison  réside dans la gravité extrême de ce comportement, comme détaillé ci-dessus.  La seconde raison réside dans le fait que, comme expliqué, l'utilisation incontrôlée de l'intelligence artificielle augmente le soupçon qu'il y avait des failles dans le processus décisionnel, et qu'elle souffre d'un manque de raisonnement, d'arbitraire et d'autres hontements.  Une troisième raison, qui découle directement de l'analyse des disparités de pouvoir entre les parties, se trouve dans les considérations du comportement directeur.  Comme je l'ai précisé, il est raisonnable de supposer que dans la plupart des cas, une personne de la communauté ne sera pas au courant qu'une décision a été prise dans son cas sur la base d'un système d'intelligence artificielle, et inclut diverses tromperies et « hallucinations » ; Dans tous les cas, dans ce genre de cas, la décision ne relèvera pas de la catégorie du contrôle judiciaire et restera en vigueur.  Cela signifie qu'il existe une crainte que l'autorité ne soit pas suffisamment prudente pour s'abstenir de tels comportements, compte tenu de la faible probabilité que la décision soit soumise à un mécanisme de contrôle externe (cette situation peut être considérée comme un cas de « manque de dissuasion »).  Par conséquent, afin de garantir que les autorités administratives adoptent des méthodes de conduite appropriées dans ce contexte, et pour éviter l'utilisation incontrôlée de l'intelligence artificielle dans leurs relations avec le citoyen dès le départ, elles doivent savoir que leurs décisions seront soumises à un contrôle judiciaire rigoureux et rigueux, qui peut également s'accompagner de recours importants.
  6. Du général au spécifique : la municipalité a fait un usage incontrôlé – sans parler de l'imprudence – de l'intelligence artificielle, tant dans sa relation directe avec le père de l'appelant, en réponse à sa demande, que dans le cadre de la procédure judiciaire. Cela concerne une grande échelle, sans aucun contrôle effectif, et sur une question très fondamentale pour l'appelant et son père – le droit de transporter le mineur, un élève en éducation spécialisée, à l'école.  En conséquence, il y avait de nombreuses lacunes importantes dans les documents en son nom – tant dans ses réponses au citoyen que dans les documents judiciaires soumis au tribunal.  Dans ces circonstances, et en tenant compte de toutes les considérations applicables dans un tel cas, comme détaillé ci-dessus, je suis d'avis que nous devons transmettre un message clair et clair, et imposer à la municipalité des dépenses élevées.

Notes finales

  1. Avant de conclure, 3 commentaires. Premièrement, en plus de la gravité du comportement de la municipalité et des préoccupations qui émergent à la lumière de l'utilisation incontrôlée de l'intelligence artificielle par les autorités administratives, nous devons veiller à ne pas « renverser le bébé avec l'eau » (voir et comparer : L'affaire Anonyme, para. 26 ; « Corriger ta colonne vertébrale, et ne pas me déformer » (Bavli, Bava Batra 169:2) – corriger (améliorer) ta colonne vertébrale, et ne pas déformer (déformer)).  L'utilisation de l'intelligence artificielle par les autorités administratives est susceptible d'apporter de nombreux avantages à notre monde, et contribuera de diverses manières à améliorer et à rationaliser le fonctionnement de ces autorités, tout en améliorant finalement le service fourni aux citoyens.  Le message n'est donc pas que l'autorité devrait s'abstenir d'utiliser des systèmes d'intelligence artificielle ; C'est l'inverse qui est vrai.  Tout ce que je vais dire, c'est que cet usage doit être fait avec un minimum de bon sens et de discernement, en étant conscient des limites actuelles de la technologie, tout en maintenant la boussole selon laquelle cet usage est fait au bénéfice du citoyen, tout en protégeant ses droits.
  2. Deuxièmement, dans de nombreux cas, nous sommes conscients, comme je l'ai déjà dit, que « la loi a suivi paresseusement les innovations du monde, et que la législation ne suit pas le rythme du progrès de la science et de ses applications » (Requête d'appel/Demande administrative 3782/12  Commandant du district de Tel Aviv-Jaffa de la police israélienne contre l'Association Internet d'Israël, para. 23 [Nevo] (24 mars 2013)).  Cela est particulièrement pertinent en matière d'intelligence artificielle – une technologie qui se développe à un rythme record, qui a un impact significatif sur notre monde et qui pourrait entraîner des changements majeurs.  Cette technologie, compte tenu de la puissance et de l'étendue de ses effets, soulève déjà d'importants défis juridiques et devrait continuer à nous présenter de nouveaux défis, de plus en plus complexes.  Les autorités compétentes – tant le pouvoir législatif que l'exécutif – feraient bien de s'attaquer à ces défis, en particulier ceux plus urgents (comme la question des obligations qui s'appliquent aux autorités administratives lors de l'utilisation de l'intelligence artificielle), et de concevoir, dans une perspective large, les outils appropriés pour faire face à ces défis.
  3. Troisièmement, dans la réponse soumise par la municipalité, l'avocat de la municipalité a soutenu que « même s'il y avait eu une erreur administrative malheureuse dans une citation ou une autre dans les actes », cela s'est produit « à la lumière de la [...] stagiaires » (au sens de « étudiant mal compris » ; à ce sujet, voir, par exemple, Rav Menashe Klein, Responsa Mishneh Hilkhot 12, paragraphe 34).  Cet argument aurait été meilleur s'il n'avait pas été avancé du tout.  Même si cela est vrai au niveau factuel – et pour éviter tout doute, je ne détermine ni ne sous-entends que ce soit bien le cas – cela ne soulève ni ne diminue le dossier.  Il est clair que la responsabilité de ce qui est écrit dans le document soumis au tribunal incombe à l'avocat qui l'a signé.

De manière plus générale, la tentative de faire porter la responsabilité des erreurs dans les documents judiciaires soumis par un avocat à d'autres parties – qu'il s'agisse de stagiaires subordonnés à l'avocat coach ou de systèmes technologiques d'intelligence artificielle – est une tentative méprisable qui doit être rejetée d'emblée.  En tant que professionnel, l'avocat est personnellement responsable de la qualité du produit qu'il produit, et il ne remplit pas son devoir en s'appuyant sur quelqu'un d'autre – un être humain ou une intelligence artificielle.

  1. En résumé : je suggère donc à mon collègue que nous acceptions l'appel et obligions la municipalité à payer des frais d'un montant de 30 000 NIS – qui concernent à la fois la procédure devant nous et celle qui a eu lieu devant le tribunal de district, et en particulier la procédure administrative.

J'ai hésité, jusqu'à ce que je décide, cette fois, de ne pas imposer des frais personnels à l'avocat de la municipalité, en vertu de Article 151(c) pour les règlements ; Au minimum, je mentionnerai l'existence même de cette possibilité.

Previous part123
45Next part