L'intelligence artificielle (IA) a envahi la vie moderne, notamment dans la génération de contenu écrit. Bien qu’il ne s’agisse que de jeux et de divertissements, l’imprécision dans la détection du contenu de l’IA est alarmante. Ce qui est pire, ce sont les détecteurs d’IA qui marquent le contenu écrit humain comme généré par GPT ; Étude de cas sur la Constitution des États-Unis.

Lisez aussi : Paul Graham de Y Combinator critiqué pour avoir affirmé que les textes avec « Delve » étaient écrits par l'IA

La Constitution des États-Unis a été rédigée en 1787, ratifiée en 1788 et est en vigueur depuis 1789. Il s’agit de la charte de gouvernement écrite la plus ancienne au monde. La Constitution existait environ un siècle avant l’invention de la première voiture. Pourtant, un détecteur d’IA l’a marqué à 97,97 % comme étant généré par l’IA.

Les détecteurs d’IA qualifient la Constitution américaine d’inhumaine

2023 a vu une augmentation du contenu écrit sur l’intelligence artificielle. Peu de temps après, les développeurs du marché ont profité de l’occasion pour créer des détecteurs qui informent les pourcentages de contenu de l’IA. Cela aurait dû être une bonne avancée, mais ce n’est pas le cas.

Un détecteur d'IA a marqué la Constitution des États-Unis comme contenu d'IA. Le pourcentage ? Une clôture de 97,97%. Le terme « intelligence artificielle » a été inventé et est devenu populaire lors de la naissance de l’IA entre 1950 et 1956. Alors, comment l’IA a-t-elle pu écrire un document 163 ans plus vieux que son invention ?

Source : Zerogpt.com

En 1950, Alan Turing a publié un article de journal intitulé « Computer Machinery and Intelligence », proposant un test d’intelligence artificielle appelé The Imitation Game. Cet article a marqué le début du monde dans lequel nous vivons aujourd’hui.

En 1952, un informaticien nommé Arthur Samuel a développé un programme pour jouer aux dames, le premier à apprendre le jeu de manière autonome. Peu de temps après, en 1955, John McCarthy organisa un atelier à Dartmouth sur « l’intelligence artificielle », qui fut la première utilisation du mot.

Les détecteurs d'IA ont des limites

Les détecteurs d’IA ont des limites car le texte généré par l’IA imite l’écriture humaine. Ces détecteurs ont été formés par les mêmes humains qui ont appris aux machines à écrire. Alors, comment fonctionneraient leurs détecteurs d’IA et quelle est leur précision ? Un autre détecteur d’IA a obtenu une teneur en IA de 1 % sur la Constitution américaine. D'où viennent les 1% ?

Source : gptzero.me

Eh bien, voici la disparité : certains détecteurs d'IA recherchent certains mots comme "fouiller, tapisserie, utiliser, nombreux, etc." qui sont généralement utilisés par l’IA mais sont rares chez les Américains. 

Cependant, pour certaines personnes originaires de pays ayant une histoire coloniale britannique, ces mots sont couramment utilisés à la fois dans la langue parlée et écrite.

Le mois dernier, Paul Graham, co-fondateur de Y Combinator, a été critiqué à la suite d'une théorie d'attribution de texte ChatGPT qu'il avait formulée sur X (anciennement Twitter). Graham a publié une proposition par e-mail froide qu'il a reçue de quelqu'un pour un projet dont il a conclu qu'il s'agissait d'une écriture d'IA car elle contenait le mot « fouiller ».

Un utilisateur de X a déclaré : « Les gens qui ont appris l’anglais dans des pays qui ont un passé colonial britannique – c’est exactement ainsi que nous avons appris l’anglais […] « Delve » est un mot normal que nous prononçons. » Un autre a dit que c’était un problème américain.

Certains pays et certaines personnes utilisent encore ce que je qualifierais de « littérature anglaise ». Le malheur est que le vocabulaire américain repose principalement sur des expressions familières (ce que vous appelez l'argot) et des idiomes américains contemporains, dans la mesure où l'usage sophistiqué de…

– Bureau de recherche sur l’Afrique (@MightiJamie) 10 avril 2024

Cela soulève la question suivante : les détecteurs d’IA et les générateurs de contenu devraient-ils être spécifiques à l’anglais et à la région ? Ou faut-il en finir avec tous ces outils d’écriture et détecteurs ?

Les détecteurs d'IA sont inexacts

Les détecteurs d’IA s’appuient sur des fonctionnalités linguistiques incohérentes. Le langage humain est intrinsèquement variable, avec un large éventail de styles, de dialectes et d’idiomes. Le texte généré par l’IA peut tomber dans ces variations, ce qui rend difficile la précision des détecteurs.

Environ 20 % des textes générés par l’IA passent par ces systèmes de détection sans être détectés, ce qui compromet la fiabilité des détecteurs d’IA. De même, environ 25 % des textes écrits par des humains sont faussement signalés comme étant de l’IA.

Un utilisateur de Quora a écrit : « Le détecteur d'IA détecte mon travail comme étant généré à 100 % par l'IA. Parce que je l'ai utilisé par ignorance comme outil d'édition et de grammaire à la demande d'un conseiller pédagogique. Les mots, le concept et l'expérience de vie contenus dans l'article déjà publié sont les miens. Que dois-je faire?"

Beaucoup ont exprimé leur frustration face à cette question. Récemment, dans un article publié par Cryptopolitan, un générateur d'IA a signalé les paroles prononcées par Donald Trump. Il a déclaré : « Je suis très positif et ouvert d’esprit envers les sociétés de cryptomonnaie et tout ce qui concerne cette nouvelle industrie en plein essor. » ⁤Comment l'IA est-elle ajoutée aux paroles ? Est-ce dans l’esprit d’une personne ? Dans les pensées exprimées ?

Un autre contenu provenait de David Bailey : «⁤Nous nous mobiliserons pour nous défendre. ⁤⁤Nous ne votons pas pour Trump en soi, nous votons contre Biden. ⁤⁤La seule personne à blâmer pour cela est Biden. "

Lisez aussi : La campagne Trump Crypto – Tout ce que vous devez savoir

En 2023, OpenAI a publié des conseils destinés aux éducateurs dans un article de blog promotionnel montrant comment certains enseignants utilisent ChatGPT comme aide pédagogique.  

Dans une section de la FAQ intitulée « Les détecteurs IA fonctionnent-ils ? » OpenAI a écrit : « En bref, non. Bien que certains (y compris OpenAI) aient publié des outils censés détecter le contenu généré par l’IA, aucun d’entre eux n’a prouvé qu’il pouvait faire une distinction fiable entre le contenu généré par l’IA et celui généré par l’homme. Le problème de la distinction entre le contenu humain et le contenu de l’IA demeure. La question est : que faut-il faire pour aller de l’avant ?

Reportage cryptopolitain de Florence Muchai