
Juan Manuel Padilla a demandé à l’outil d’IA comment les lois s’appliquaient dans le cas du financement des soins médicaux d’un garçon autiste, tout en utilisant des précédents pour appuyer sa décision. L’affaire en Colombie a soulevé un débat sur l’utilisation de l’IA en droit.
Un juge colombien a fait sensation en admettant avoir utilisé l’outil d’intelligence artificielle ChatGPT pour décider si l’assurance d’un enfant autiste devait couvrir tous les coûts de son traitement médical. Il a également utilisé des précédents de décisions antérieures pour étayer sa décision.
Juan Manuel Padilla, juge de la ville de Carthagène, dans les Caraïbes, a conclu que l’intégralité des frais médicaux et de transport de l’enfant devait être prise en charge par son régime d’assurance maladie, car ses parents ne pouvaient pas se le permettre.
Si le jugement en lui-même n’a pas fait beaucoup de bruit, l’inclusion des conversations de Juan Manuel Padilla avec ChatGPT dans la décision a été plus controversée.
Parmi les questions posées par le juge au chatbot, les documents juridiques montrent que Juan Manuel Padilla a demandé à ChatGPT la question juridique précise en question : « Est-ce qu’un mineur autiste est exonéré de payer des frais pour ses thérapies ? »
La réponse de ChatGPT correspondait à la décision finale du juge : » Oui, c’est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »
L’affaire a soulevé une discussion sur l’utilisation de l’IA en droit et a été critiquée par certains des pairs de Padilla.
ChatGPT parcourt les textes sur Internet pour générer des réponses informées, mais il a été démontré qu’il pouvait fournir des réponses différentes à la même question. Il fabrique également des informations à l’occasion pour produire des mensonges inventifs et convaincants.
Cette plateforme naissante a suscité l’inquiétude ces dernières semaines, y compris dans les écoles, où les enseignants craignent que la plateforme d’OpenAI ne soit utilisée par les élèves pour faire du plagiat.
Juan Manuel Padilla a défendu son utilisation de la technologie, suggérant qu’elle pourrait rendre le système juridique colombien plus efficace. Le juge s’est également appuyé sur les précédents des décisions précédentes pour étayer sa décision.
Il a déclaré mardi que ChatGPT et d’autres programmes de ce type pourraient être utiles pour « faciliter la rédaction de textes » mais « pas dans le but de remplacer » les juges.
Il a également insisté sur le fait que « en posant des questions à l’application, nous ne cessons pas d’être des juges, des êtres pensants ».
Le juge a fait valoir que ChatGPT rend des services auparavant assurés par une secrétaire et qu’il le fait « d’une manière organisée, simple et structurée », ce qui pourrait « améliorer les temps de réponse » dans le système judiciaire.
Le professeur Juan David Gutierrez, de l’université de Rosario, a été parmi ceux qui ont exprimé leur incrédulité face à l’aveu du juge.
Il a appelé à une formation urgente à la « culture numérique » pour les juges.
La Colombie a approuvé en 2022 une loi qui suggère que les avocats publics utilisent les technologies dans la mesure du possible pour rendre leur travail plus efficace.
Octavio Tejeiro, juge à la Cour suprême de Colombie, a déclaré que l’IA avait provoqué une panique morale dans le droit, car les gens craignaient que les robots ne remplacent les juges, mais il a prédit que l’outil serait probablement bientôt accepté et banalisé.
« Le système judiciaire devrait tirer le meilleur parti de la technologie en tant qu’outil, mais toujours en respectant l’éthique et en tenant compte du fait que l’administrateur de la justice est en définitive un être humain », a déclaré M. Tejeiro. « Elle doit être considérée comme un instrument qui sert au juge pour améliorer son jugement. Nous ne pouvons pas permettre que l’outil devienne plus important que la personne. »
Octavio Tejeiro a déclaré qu’il n’avait pas utilisé ChatGPT mais qu’il envisagerait de l’utiliser à l’avenir.
Le chatbot lui-même a eu plus d’appréhension quant à son nouveau rôle dans le système judiciaire.
« Les juges ne devraient pas utiliser ChatGPT lorsqu’ils statuent sur des affaires juridiques… Il ne remplace pas les connaissances, l’expertise et le jugement d’un juge humain », a-t-il répondu à une question du Guardian.
« Les journalistes doivent faire preuve de prudence lorsqu’ils utilisent des citations générées par ChatGPT dans leurs articles », a ajouté le bot.
https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling