Arbitration Tech Toolbox : discutons un peu plus de ChatGPT et de la résolution des litiges

Introduction
ChatGPT est l’abréviation de « Chat Generative Pre-Trained Transformer ». Il s’agit d’un bot de génération de texte artificiellement intelligent qui peut avoir une conversation. Pour ce faire, il utilise un algorithme de traitement du langage appelé « Transformer », qui génère des réponses en langage naturel à l’entrée de l’utilisateur. Il existe différentes plates-formes d’utilisateurs, par exemple, https://openai.com/blog/chatgpt. ChatGPT est simple, comme tout chat virtuel entre humains : cliquez sur le lien, tapez, recevez une réponse et répondez.

J’ai récemment eu le plaisir de discuter de ce nouveau développement sur un podcast qui sera bientôt publié et co-organisé par Delos Dispute Resolution et Orrick. Adith Haridas (co-fondateur du perturbateur numérique AirPMO) a fourni des informations du point de vue d’un développeur de chatbot. Tunde Oyewole (avocat à Orrick) a exploré s’il pouvait et devait être utilisé dans le plaidoyer. Dans cet article de blog, je prends du recul et pose des questions sur l’éthique de l’ensemble de l’exercice – en particulier si un chatbot est quelque chose que la communauté juridique pourrait et devrait adopter.

Comment ChatGPT peut-il aider la communauté juridique ?
L’intelligence artificielle est déjà utilisée dans la loi, par exemple, pour essayer de prévoir les résultats des litiges et de calculer automatiquement les heures facturables. ChatGPT offre une nouvelle tournure car il peut générer du contenu lorsque vous y êtes invité. Lorsque j’ai tapé « veuillez me donner un essai sur la réglementation pharmaceutique récente de l’UE », il a répondu avec une réponse cohérente de huit paragraphes en quelques secondes. Il s’agit clairement d’un outil de recherche potentiellement pertinent qui coûte moins cher qu’un avocat recherchant la question à nouveau. En outre, les préoccupations concernant l’exactitude du produit du travail peuvent être résolues en demandant des sources, comme je l’explique ci-dessous. S’il est appliqué à un ensemble de preuves fermé et cyber-sécurisé, il pourrait également aider les avocats à créer des arguments basés sur la banque de données et, en fin de compte, à gagner un litige. De plus, il pourrait être utilisé par les juges et les tribunaux. Ils pourraient taper, par exemple, « Le demandeur a-t-il signalé des retards sur un projet ? » » et « Qu’a fait le défendeur en réponse ? Cela pourrait accélérer l’examen par le juge ou l’arbitre des éléments de preuve et leur permettre ainsi de rendre leurs décisions plus rapidement. Ce sont des exemples d’IA justificatif la loi. D’autres exemples sont couverts dans l’article de Leonardo Souza-McMurtrie sur ce blog. Une question connexe est de savoir si ChatGPT pourrait éventuellement aller plus loin et reprendre le rôle d’un avocat, d’un juge et d’un tribunal.

Est-ce important ce que l’IA peut faire ?
Cependant, demander ce qu’un chatbot peut faire pour la communauté juridique n’est pas la fin de l’affaire. L’approche de l’ingénieur est « si cela peut être développé, nous le développons ». L’éthicien (et l’avocat) demanderait : « Même si nous pouvons le développer et l’utiliser, devrait nous? » C’est une question importante.

J’ai emmené mes fils au London Design Museum il y a quelques jours. Dans une exposition, ils avaient juxtaposé au mur une mitrailleuse et un plâtre pour une jambe cassée. La description était que les deux ont été inventés pendant la Seconde Guerre mondiale et ont une large application compte tenu de la facilité de fabrication et d’utilisation, mais l’un a été conçu pour tuer et mutiler, et l’autre pour guérir. Le concepteur ou l’utilisateur est-il responsable des résultats finaux ? La simple capacité de faire quelque chose n’en fait pas une bonne chose à faire. La bombe atomique en est un parfait exemple.

Dans le même ordre d’idées, je suis souvent frappé par l’appréhension de la communauté juridique face à une nouvelle frontière technologique. Est-ce que nous sommes en retard, ou protégeons-nous instinctivement quelque chose de sacro-saint – une ligne que nous ne devrions pas franchir ? J’en discute ensuite.

Un bot est-il pire que l’esprit humain ?
Lorsque j’ai eu une première conversation avec ChatGPT, il m’a proposé l’avertissement suivant :

« Limites:

  • Peut occasionnellement générer des informations incorrectes.
  • Peut occasionnellement produire des instructions préjudiciables ou un contenu biaisé.
  • Connaissance limitée du monde et des événements après 2021. »

Ces limitations rendent-elles ChatGPT unique ? J’ai vu de nombreux mémoires et sentences juridiques qui souffrent de ces lacunes : la loi ou les faits sont incorrects, le jugement ou la sentence est biaisé, ou le rédacteur a ignoré des preuves cruciales. Étant donné qu’un chatbot et l’esprit humain souffrent des mêmes lacunes, ces limitations peuvent ne pas être une raison pour rejeter ChatGPT dans le domaine des litiges internationaux.

Le mot « pré-formé » dans « Chat Generative Pre-Trained Transformer » est important. Nos cerveaux, eux aussi, sont « pré-entraînés ». Le droit consiste à pré-entraîner le cerveau à appliquer certains processus de pensée. Lorsque je suis passé de la philosophie, de la politique et de l’économie à la lecture du droit, il m’a fallu du temps pour m’habituer à la façon de penser juridique. En effet, le droit déploie sa propre méthodologie systématique qui diffère de l’approche plus discursive adoptée par les sciences sociales. Les développeurs de ChatGPT appellent le langage humain « non structuré » et le langage du bot « structuré », mais je dirais qu’un mode de pensée légal est également très structuré.

De plus, la loi implique la maîtrise d’un vaste ensemble de données. C’est le domaine d’excellence de l’IA, alors que la mémoire humaine peut échouer. Peut-être que ChatGPT maîtriserait donc mieux les ensembles de données et raterait moins de choses. Par exemple, des études montrent que l’intelligence artificielle pourrait mieux prédire quels criminels peuvent être libérés sous caution et lesquels ne le sont pas.. C’est principalement parce qu’une telle analyse est statistique et se fonde sur un enregistrement de faits passés.

Un bot peut-il rendre justice ?
Mais que se passe-t-il lorsque nous n’avons pas de précédent significatif à partir duquel extrapoler les prédictions ? Par exemple, lorsque nous avons des parties dans un différend pour la première fois, avec des preuves numérisées d’une conduite passée, et que le juge ou l’arbitre doit prendre une décision juste ? L’ensemble de données limité limite l’exactitude du travail d’AI – et en effet, les ensembles de données limités sont actuellement un problème pour ceux qui cherchent à prédire les résultats des litiges. ChatGPT pourrait-il jouer le rôle d’un juge ou d’un arbitre dans cette situation ?

Cela touche au cœur de ce que nous faisons en tant qu’avocats. En ce qui concerne les principes de l’Autorité de réglementation des avocats, le premier principe est que les avocats doivent « agir d’une manière qui respecte le principe constitutionnel de la primauté du droit et de la bonne administration de la justice ». La question devient donc « ChatGPT peut-il administrer la justice? »

On pourrait prendre un realpolitik voir. Dans République, Platon attribue au cynique Thrasymaque l’idée que « la justice est l’avantage du plus fort ». Dans ce scénario, les parties impliquées dans un litige engagent des avocats, qui utilisent tous deux ChatGPT pour les aider à articuler et à étayer leur cas. Puisque ChatGPT peut être formé, la partie avec le chatbot le mieux formé et le plus sophistiqué gagne. Selon ce point de vue « la force fait le bien », justice a été rendue parce que le parti financièrement le plus fort a gagné.

Ce n’est cependant pas la fin de l’histoire. Aristote, Platon et Rawls (qui a peut-être formulé la théorie moderne la plus systématique de la justice sociétale), entre autres, puisent dans la justice comme quelque chose qui implique la vertu morale. Même pour ChatGPT, « la justice doit être morale » car elle est « basée sur les principes d’équité et de moralité, ce qui signifie que la justice doit être enracinée dans une sorte de code moral ou un ensemble de valeurs ». Bref, « sans morale, la justice ne peut exister ». Dans le même temps, le bot considère que « ChatGPT n’a pas de morale car c’est un programme informatique et n’est pas capable de prendre des décisions morales ».

À première vue, cela semble être la fin de l’histoire : seuls les humains peuvent se comporter moralement. Si ChatGPT a raison d’affirmer que « sans moralité, la justice ne peut exister », seuls les avocats, et non les bots, peuvent présenter de manière convaincante un dossier complet pour la justice, et seuls les juges et les tribunaux peuvent le distribuer.

Mais c’est peut-être une conclusion trop hâtive. J’ai mentionné ci-dessus que ChatGPT est « pré-formé ». Mes enfants aussi sont pré-formés en éthique. J’ai passé des années à leur enseigner un réseau assez complexe et non binaire de conduite éthique. En tant que parent, je ne peux pas dire « Ne mentez jamais ». Je dis « ne mentez jamais (parce que je le découvre toujours mais aussi parce que c’est mal de mentir, selon Kant) sauf dans des situations limitées comme lorsqu’une personne douteuse que vous ne connaissez pas veut connaître votre nom et votre adresse personnelle, dans laquelle cas, fuyez et ne dites rien, ou si vous devez dire quelque chose, inventez quelque chose ». Je me demande si, si j’avais passé le même nombre d’heures à entraîner ChatGPT à penser de manière éthique, il pourrait finalement atteindre le même niveau de sophistication pour calculer les bonnes manières d’agir sur le plan éthique.

C’est tout à fait en dehors de la perception que les humains aiment probablement penser qu’ils sont plus sophistiqués sur le plan éthique qu’ils ne le sont. Alors que je vois rarement des confrères juristes appliquer les principes stricts de conduite morale de Kant, j’ai vu beaucoup d’entre eux agir avec un intérêt personnel si illimité qu’il rend Thrasymaque fier.

L’utilisation de ChatGPT dans le traitement des preuves est-elle problématique ?
Plus concrètement, les avocats ne doivent pas influencer le fond de la preuve, y compris en générant de fausses preuves. Ce principe a été adopté entre autres par la Solicitors Regulation Authority dans le principe 2.2.

Récemment, le programme du Baccalauréat International a accepté ChatGPT comme source pour la rédaction d’essais. Matt Glanville, responsable des principes et pratiques d’évaluation de l’IB, a déclaré que « [w]orsque l’IA peut essentiellement écrire un essai en appuyant simplement sur un bouton, nous avons besoin que nos élèves maîtrisent différentes compétences, telles que comprendre si l’essai est bon ou s’il a raté le contexte, a utilisé des données biaisées ou s’il manque de créativité. Ce seront des compétences bien plus importantes que la rédaction d’un essai, donc les tâches d’évaluation que nous fixons devront refléter cela.

Dans mes conversations avec ChatGPT, je n’ai reçu de citations pour aucune des déclarations que j’ai reçues. Une citation rigoureuse est essentielle pour s’assurer qu’un élément de preuve est véridique et reflète tout son contexte, et donc essentiel pour respecter nos obligations déontologiques en tant qu’avocats. La bonne nouvelle est que l’on peut demander à ChatGPT de fournir des sources.

Cependant, le problème est plus fondamental. Si nous ne connaissons pas la preuve en tant qu’arbitres ou conseils, savons-nous ce qui nous manque? En d’autres termes, comment savons-nous ce que nous ne savons pas ? Beaucoup d’entre nous se méfient de l’idée qu’un secrétaire du tribunal rédige la sentence pour l’examen du tribunal, car le processus d’examen des preuves fait partie intégrante du processus de décision équitable. Lorsque l’arbitre examine simplement une ébauche, il ne saura pas nécessairement quelle preuve a été exclue du récit. De même, si ChatGPT rédige une soumission pour moi, même si je dispose de sources rigoureuses que je peux vérifier, comment puis-je savoir quelles preuves ont été pas tissé dans la soumission ? Il y a quelque chose de précieux dans l’exercice très chronophage et méticuleux qui consiste à s’asseoir avec les preuves et à les lire dans l’ordre chronologique. Peut-être que ce processus de preuve douloureux et peu glorieux fait partie de la loi que nous protégeons à juste titre comme étant sacro-sainte parce qu’il est si fondamental pour rendre justice.

Ce qui nous attend
La discussion précédente suppose que de telles ressources sont disponibles, ce qui permet de passer des heures à créer des arguments juridiques solides. Ce n’est pas toujours le cas. Nous avons récemment discuté de cette question sur notre podcast, en particulier des défis auxquels sont confrontés les répondants qui n’ont pas de représentation légale. J’ai rencontré cela lorsque j’étais arbitre unique et j’ai dû m’appuyer sur des principes fondamentaux d’équité pour m’assurer qu’un défendeur non représenté (qui n’avait pas les fonds nécessaires pour engager un avocat) comprenne ce que je disais et que je n’ai pas viré en agissant comme défendre l’intimé et ainsi porter préjudice au demandeur. J’ai écrit sur cette expérience dans un article de blog, que vous pouvez trouver ici. Parce que quelque chose vaut mieux que rien, peut-être que ChatGPT contribuerait à aider ces répondants non représentés – sur lesquels regarder cet espace…

Hanna Roos est l’associée fondatrice d’Aavagard LLP qui représente une nouvelle ère du droit. #Défi accepté

We use cookies to personalise content and ads, to provide social media features and to analyse our traffic. We also share information about your use of our site with our social media, advertising and analytics partners. View more
Cookies settings
Accept
Privacy & Cookie policy
Privacy & Cookies policy
Cookie name Active
rnib.fr Photo de la page Dispositions légales

Politique de confidentialité:

Contenu embarqué à partir de sites tiers:

Les posts de ce site sont susceptibles d'enfermer des informations constituées (par exemple des vidéos, images, papiers…). Le contenu emporté depuis d’autres sites se compose de façon comparable que si le visiteur fréquentait cet autre site.Ces sites internet ont la possibilité de collecter des datas au sujet de vous, user des cookies, embarquer des moteurs de suivis extérieurs, conserver vos interventions avec ces datas prises si vous disposez d'un compte relié sur leur site web.

Cookies:

Lorsque vous déposez un texte sur ce site, vous devrez enregistrer votre nom, e-mail et site dans des cookies. Ce sera uniquement avec pour objectif de votre facilité d'utilisation afin de ne pas devoir à saisir ces données si vous enregistrez un nouveau texte ultérieurement. Ces cookies expirent au terme d’un an.Dans les cas où vous visitez la partie de l'enregistrement, un cookie temporaire va se activé pour diagnostiquer si votre terminal accepte les cookies. Cela ne contient pas de datas privées et sera ôté obligatoirement à la fermeture votre programme de navigation.Quand vous accédez, nous mettrons en place un certain nombre de cookies pour identifier vos données de connexion et vos options d’écran. L'espérance de vie d’un cookie de connexion est de moins de 3 jours, celle d’un cookie de navigation est de l'ordre de l'année. Au cas où vous cochez « Se souvenir de moi », le cookie de connexion sera pérennisé pendant deux semaines. Si vous vous déconnectez de votre espace personnel, le cookie de login sera radié.En modifiant ou si vous diffusez une publication, un cookie de plus sera établi dans votre browser. Ce cookie n'est constitué d'aucune identification secrète. Il signifie simplement l’ID de l'article que vous venez de corriger. Il expire au bout de quelques heures.

Les droits que vous avez sur vos données:

Dans les cas où vous détenez un espace personnel ou si vous avez écrit des textes sur le site, vous avez la possibilité de réclamer à décrocher un fichier enfermant toutes les données privatives que nous détenons à propos de vous, comprenant celles que vous nous avez communiquées. Vous avez le droit également de demander la suppression des informations privatives vous concernant. Cette procédure ne prend pas en compte les données sauvegardées à des fins de gestion, légales ou afin de sécurité.

Les contenus:

Lorsque vous envoyez des photos sur le site, nous vous conseillons de vous abstenir de téléverser des icônes introduisant des tags EXIF de coordonnées GPS. Les personnes explorant ce site ont la possibilité de télécharger des datas de détection à partir de ces médias.

Durées de mémorisation de vos données:

Lorsque vous laissez un commentaire, le commentaire et ses métadonnées sont retenus éternellement. Ce process suppose de diagnostiquer et acquiescer mécaniquement les textes suivants plutôt que de les transmettre dans la liste du modérateur.Dans les cas où les espaces personnels qui s’identifient sur le site (au cas où), nous stockons pareillement les datas individuelles exposées dans leur page personnel. Tous les espaces individuels savent voir, modifier ou supprimer leurs données privatives à tout moment. Les responsables du site savent aussi intervenir sur ces données.

Déposer des commentaires sur ce site:

Lorsque vous écrivez un commentaire sur ce site, les informations reproduites à l'intérieur du formulaire visible sur l'écran, mais aussi votre adresse IP et l'information utilisateur de votre logiciel de navigation sont mémorisés avec pour objectif de nous aider à repérer des textes interdits.

CGU normalisées à la RGPD

Divulgation de vos données personnelles:

Tous textes des utilisateurs pourront être authentifiés au moyen d'un travail robotisé de découverte des commentaires indésirables.

Maniement et cession de vos informations individuelles:

Si vous demandez une désactivation de votre password, votre IP sera comprise dans l’e-mail de purge.

Save settings
Cookies settings