TENDANCES
Comparateur
- AUTO
Un juge brésilien a été sommé de s’expliquer après sa mésaventure qui concerne l’utilisation d’une intelligence artificielle (ChatGPT) pour rédiger sa sentence. Elle contenait des références erronées.

Le Conseil national de justice (CNJ), organe public chargé de veiller au bon fonctionnement du système judiciaire, a demandé au magistrat Jefferson Rodrigues d’expliquer comment il en était venu à rendre une décision truffée d’erreurs. Ce juge fédéral de l’État d’Acre (nord) a utilisé comme fondement de sa décision de faux éléments de jurisprudence attribués au Tribunal supérieur de justice (STJ), une des plus hautes instances judiciaires du Brésil.
Selon un document du CNJ consulté lundi par l’AFP, le magistrat a dit avoir confié l’élaboration de cette sentence à un collaborateur de confiance qui s’est aidé de l’outil ChatGPT. Les erreurs « ont eu lieu en raison de l’utilisation d’un outil virtuel qui s’est révélé inadéquat », a reconnu le juge. Il a attribué cette « simple erreur » à « la surcharge de travail » des magistrats brésiliens. « Nous pensons qu’il s’agit du premier cas de ce type », a dit le CNJ, donnant 15 jours au magistrat pour fournir des explications plus approfondies.
Selon cet organe, le recours à l’intelligence artificielle est de plus en plus courant dans les tribunaux brésiliens, où cette technologie n’a pas encore été encadrée par la loi.
Les animaux virtuels n’ont décidément rien perdu de leur pouvoir de fascination. Aperçu au CES 2026, le Sweekar revisite le...
Allergen Alert vient de présenter au CES 2026 un dispositif portable qui ambitionne d’aider les personnes allergiques et celles atteintes de...
Avec l’arrivée des XREAL 1S, XREAL affine sa stratégie avant le lancement de ses premières lunettes sous Android XR. Ce...
À l’occasion du CES 2026, Withings annonce Body Scan 2, une nouvelle génération de balance connectée orientée...
Dans une offensive majeure pour dominer le marché de l’intelligence artificielle sur mobile, Samsung prévoit de doubler le nombre de...