Beaucoup de gens pensent qu’un jour les programmes ChatGPT les mettront au chômage. Pourtant, certaines professions n’ont pas à craindre une éventuelle surclassement par l’IA. Comme le rapporte le New York Times, Steven Schwartz, un avocat new-yorkais, a récemment utilisé le chatbot d’OpenAI pour l’aider à rédiger un mémoire juridique, avec des résultats désastreux.

Les résultats du chatbot contenaient des erreurs grammaticales et des déclarations insensées qui auraient pu coûter son procès à Schwartz. Cela souligne l’importance de l’expertise humaine et de la pensée critique dans des domaines tels que le droit, où une seule erreur peut avoir de graves conséquences.

Le cabinet d’avocats de Schwartz poursuit Avianca au nom de Roberto Mata, qui affirme avoir été blessé lors d’un vol à destination de New York. La compagnie aérienne a récemment demandé à un juge fédéral de classer l’affaire. Cependant, selon les avocats de Mata, de nombreux cas soutiennent la thèse du plaignant, notamment « Varghese v. China Southern Airlines », « Martinez v. Delta Airlines » et « Miller v. United Airlines ». Cependant, il y a un problème : personne n’a pu identifier les décisions judiciaires citées dans le mémoire de Mata, car ChatGPT les a toutes créées. Cette révélation soulève de graves inquiétudes quant à la crédibilité de l’équipe juridique de Mata et de ses arguments. Elle remet également en question la validité de toute autre preuve ou citation présentée par les avocats de Mata dans cette affaire et dans les affaires précédentes.

Jeudi, Schwartz a déposé une déclaration sous serment dans laquelle il affirmait avoir utilisé ChatGPT pour compléter ses recherches pour l’affaire. Il a affirmé qu’il n’avait pas été au courant de la possibilité que les documents qu’il avait déposés puissent être faux. Il a également partagé des captures d’écran où il avait demandé au chatbot si les cas cités étaient réels. Le chatbot a répondu par l’affirmative, indiquant à Schwartz que des « bases de données juridiques réputées » comme Westlaw et LexisNexis contenaient les décisions. Cependant, après une enquête plus approfondie, il a été découvert que le chatbot avait été programmé pour extraire des informations de sources peu fiables. Cela souligne l’importance de vérifier les faits et les sources avant de partager des informations en ligne.

« Je regrette d’avoir utilisé ChatGPT dans le passé et je ne le ferai plus à l’avenir sans vérification absolue de son authenticité », a déclaré Schwartz au tribunal. Le 8 juin, une audience aura lieu pour discuter des sanctions potentielles pour la « circonstance sans précédent » créée par Schwartz. La déclaration de Schwartz suggère qu’il a peut-être subi des conséquences négatives en utilisant ChatGPT sans vérifier son authenticité. Il reste à voir quel sera le résultat de l’audience et quel impact cela aura sur Schwartz à l’avenir.

  • Les autorités chinoises ont poursuivi ChatGPT, un chatbot utilisé par Tencent et Ant Group après qu'il a été impliqué dans un scandale politique. Cela a conduit à des restrictions plus strictes sur l'utilisation de ChatGPT.

  • Les utilisateurs des réseaux sociaux ont peut-être remarqué de fausses réponses, qui sont des réponses générées par le chatbot ChatGPT. ChatGPT génère de fausses réponses pour tenter de paraître plus humain.

Lire plus d'articles connexes :

  • Un homme rédige sa thèse en une journée en utilisant uniquement ChatGPT

  • D-ID lance un chatbot conversationnel en face à face basé sur l'IA et optimisé par ChatGPT

  • Apple interdit à ses employés d'utiliser ChatGPT

L'article L'avocat qui a utilisé ChatGPT pour rédiger un mémoire truffé de fausses citations pour faire face à des sanctions est apparu en premier sur Metaverse Post.