Un post de la Chronique des barreaux sur Linkedin reprend de manière plaisante un article du New-York Times qui raconte qu’un avocat américain avait crû bon d’interroger ChatGPT pour rédiger des conclusions, ce qui l’avait conduit à citer un grand nombre de jugements qui n’avaient jamais existé.
Cela me rappelle qu’après avoir lu que ChatGPT pourrait être utilisé par des juristes, j’ai eu l’occasion de tester les possibilités offertes par cette intelligence artificielle.
J’ai choisi d’interroger ChatGPT sur un principe de droit européen qui n’est peut-être pas le plus connu : le principe de confiance légitime. Je lui ai d’abord demandé de définir ce principe.
Voici sa réponse : » le principe de confiance légitime est un principe juridique qui stipule que l’autorité publique doit agir de bonne foi et avec transparence dans l’exercice de ses fonctions. Cela signifie que les actions et les décisions de l’autorité publique doivent être justifiées et proportionnées à l’objectif poursuivi. Le principe de confiance légitime s’applique également aux relations entre les différentes branches du gouvernement et les citoyens. Les citoyens doivent pouvoir avoir confiance dans l’intégrité et l’impartialité des autorités publiques, et les autorités publiques doivent être responsables de leurs actions devant les citoyens« .
Sur le moment, j’étais impressionné par cette réponse, fournie en quelques secondes. Cela dit, elle est un peu imprécise. Une intelligence humaine aurait sans doute d’emblée précisé que les citoyens peuvent se réclamer du principe de confiance légitime devant les juridictions lorsque l’administration leur a fourni des assurances précises en se fondant sur le droit applicable mais qu’elle s’est ensuite ravisée et a pris une décision autre que celle qui était annoncée. Et certes, l’administration doit justifier ses décisions et les proportionner aux objectifs recherchés, mais il s’agit plutôt d’une définition du principe de proportionnalité que du principe de confiance légitime qui correspond plutôt aux deux dernières phrases de la définition proposée.
J’ai ensuite demandé à ChatGPT de me fournir des exemples jurisprudentiels d’applications du principe en question. Il m’en a fourni plusieurs dont les trois suivants m’ont laissé particulièrement perplexe.
Le premier exemple concernait une décision de la CNIL
- « Dans l’affaire ‘Commission nationale de l’informatique et des libertés’ c/ Google France, la CNIL a jugé que Google avait violé le principe de confiance légitime en collectant et en utilisant des données personnelles sans avoir obtenu le consentement des utilisateurs« .
D’emblée, on peut noter que cet exemple est pour le moins surprenant car la CNIL y apparait littéralement comme juge et partie. Manifestement, Chat-GPT n’a pas fait le lien entre le nom complet de la CNIL et son acronyme. Au-delà, rappelons, si nécessaire, que la CNIL est une autorité indépendante, susceptible d’être partie à un procès, mais qu’elle n’est, sauf évolution future du droit européen, pas une juridiction.
Par ailleurs, si la CNIL a effectivement sanctionné Google en janvier 2022, cela ne peut concerner le principe de confiance légitime qui s’applique aux relations entre le public et l’administration…puisque Google n’est pas une administration. Manifestement, ChatGpt semble confondre loyauté et protection des données personnelles avec le principe de confiance légitime.
Un second exemple concernait un arrêt de la CJCE
- « Dans l’affaire Bosphorus Hava Yolları Turizm ve Ticaret A.S. et autres c. Irlande, la Cour de justice de l’Union européenne a jugé que l’Irlande avait violé le principe de confiance légitime en ne garantissant pas une protection juridique suffisante aux compagnies aériennes qui avaient subi des dommages en raison de l’interdiction de survol imposée par les Etats-Unis après les attentats du 11 septembre 2001« .
L’arrêt « Bosphorus » existe bel et bien (arrêt du 30 juillet 1996 dans l’affaire C-84/95, rendu, à l’époque par la Cour de justice des communautés européennes : CJCE). On peut aussi le télécharger sur le site de la CJUE (Curia), ce qui permet de se rendre compte que :
- le litige n’a rien à voir avec une interdiction de survol imposée par les Etats-Unis. Il concerne, dans le contexte des sanctions prises par l’Europe à l’encontre de la République de Yougoslavie (alors en conflit avec la Croatie et la Bosnie), la saisie d’un avion appartenant à une entité yougoslave mais loué à un affréteur turc ;
- certes, l’affréteur turc protestait de sa bonne foi dans cette affaire : la location, qui courrait sur plusieurs années était antérieure au conflit et, en application des sanctions, les loyers étaient versés sur un compte bloqué. Mais il ne suffit pas d’être de bonne foi pour pouvoir invoquer valablement le principe de confiance légitime. J’ai donc voulu vérifier à quel endroit de l’arrêt il en était question. Après examen, j’ai pu constater que les mots « confiance » et « légitime » n’apparaissent ni dans l’arrêt ni dans les conclusions de l’avocat général…
- enfin, la CJCE a donné raison à l’Irlande dans cette affaire. Contrairement à ce qu’affirme ChatGPT, l’Irlande n’a violé aucun principe.
Un troisième exemple était relatif à un arrêt du Conseil d’Etat.
- Dans l’affaire Sté de la Loire c/ France, le Conseil d’État a jugé qu’il y avait violation du principe de confiance légitime car l’administration avait changé la réglementation en cours de procédure, alors qu’elle avait été engagée en se basant sur la réglementation en vigueur à ce moment-là.
Cette référence paraissait un plus sérieuse et paraissait correspondre à un vrai problème de droit : l’application rétroactive d’une nouvelle procédure pourrait effectivement être contraire au principe de confiance légitime même si elle est autorisée par le règlement qui établit cette norme. J’ai donc demandé les références précises de l’arrêt du Conseil d’État (date et numéro d’affaire). La réponse a été la suivante :
« Je m’excuse pour la confusion, mais l’arrêt « Sté de la Loire c/ France » que j’ai mentionné précédemment n’est pas une référence précise à un arrêt du Conseil d’État. Il s’agissait d’un exemple hypothétique utilisé à des fins d’illustration. Je ne peux pas vous fournir de références précises pour cet arrêt car il n’existe pas dans la réalité.
Veuillez noter que, en tant que modèle de langage, je peux générer du contenu de manière fictive pour illustrer certains concepts, mais cela ne correspond pas nécessairement à des cas réels spécifiques. Si vous avez d’autres questions ou si vous souhaitez discuter d’autres sujets, n’hésitez pas à me le faire savoir ».
Au vu de ces résultats, je n’avais pas d’autres questions.
Les experts en intelligence artificielle nous expliquent que ChatGPT utilise un algorithme permettant de fournir des énoncés vraisemblables, mais non forcément véridiques. Voir par exemple la tribune de Laurence Devillers dans Le Monde du 23 janvier 2023 (1)
Sur ce point, les juristes et professionnels du droit savent bien que ce n’est pas parce qu’on tient un raisonnement logique et qu’on s’appuie sur des faits plausibles qu’on a nécessairement raison devant la justice…
La conclusion que je tire de cette expérience est que, si on veut résoudre un problème de droit, il vaut mieux s’adresser à un véritable avocat qu’à une intelligence artificielle, aussi séduisante soit-elle.