Un certain nombre d’outils en ligne prétendent détecter la sortie de ChatGPT. J’ai testé certains de ces outils, qui – même lorsqu’ils sont réussis – peuvent encore être facilement trompés si le texte est légèrement modifié. C’est ce que les lecteurs, les chercheurs et les éducateurs peuvent faire pour détecter les résultats de l’IA jusqu’à ce que des technologies plus performantes soient disponibles.
Depuis que j’ai écrit mon dernier pièce À propos de la détection de la sortie du chatbot ChatGPT alimenté par l’IA, j’ai rencontré plusieurs outils disponibles gratuitement dont les développeurs ou les utilisateurs affirment qu’ils peuvent être utiles pour détecter l’écriture générée par l’IA.
Les éducateurs, en particulier, recherchent frénétiquement des méthodes fiables pour atteindre cet objectif, craignant que les étudiants n’utilisent ChatGPT pour remplir leurs devoirs d’écriture. Mais la pertinence de ces outils va également au-delà de l’éducation, car l’écriture générée par l’IA peut aider à exécuter la cybercriminalité, la fraude et d’autres stratagèmes illicites.
L’outil le plus discuté que j’ai rencontré jusqu’à présent est GPTZérodéveloppé par un étudiant de Princeton Edouard Tian. Même les experts en IA sont faire l’éloge cet outil, qui fonctionne en analysant la « perplexité » et le « burstiness » d’un texte donné, les indicateurs de l’outil de la probabilité que le texte ait pu être généré par la machine. La « perplexité » est une mesure de la complexité du texte par rapport aux données sur lesquelles le modèle a été formé, tandis que la « rafale » est censée mesurer l’uniformité d’un texte en termes de longueur de phrase, avec l’hypothèse sous-jacente que les humains produisent moins écriture uniforme que les modèles d’IA. GPTZero fournit une valeur numérique de la prévisibilité du texte, et plus la valeur est faible, plus il est probable que le texte ait été généré par l’IA.
Pour tester cet outil, je l’ai alimenté avec une scène de mystère de détective de film noir produite par ChatGPT. Initialement, GPTZero a donné à la scène un score de perplexité faible (38,4), indiquant une probabilité que le texte ait été généré par la machine. C’était un résultat encourageant car d’autres outils, dont je parle ci-dessous, n’ont pas du tout signalé cette scène.
Quand j’en ai fait deux très mineur changements apportés au texte, cependant, ces changements ont complètement détruit le modèle et GPTZero a maintenant donné à la scène un score de perplexité de 60,9, affirmant qu’il est probablement généré par l’homme. Les modifications que j’ai apportées au texte étaient très simples et « humaines » : une minute d’erreur de frappe (« d’accord » au lieu de « d’accord ») et un mot erroné ou moins courant (« minacious » au lieu de « menaçant ») qui complètement perturbé les calculs de prévisibilité du modèle.
Apparemment, cet outil ne s’attend pas à ce qu’une machine produise des fautes de frappe ou utilise des mots obscurs ou hors contexte. De même, les fraudeurs de toutes sortes peuvent apporter des modifications aussi simples pour tromper tout outil automatisé prétendant détecter l’écriture générée par l’IA. On peut également s’attendre à ce que ces stratégies de perturbation deviennent plus transparentes à mesure que les fraudeurs s’adaptent et développent des techniques d’évasion plus sophistiquées. La perturbation du critère de « burstiness » en manipulant la longueur des phrases semble particulièrement séduisante dans ce contexte. Les lecteurs potentiels pourraient ne pas remarquer une telle manipulation alors que les détecteurs de texte IA y verraient toujours un signe d’authenticité.
J’ai également essayé d’autres outils gratuits suggérés par les utilisateurs en ligne pour détecter la sortie ChatGPT. Ces outils, comme un Détecteur de sortie GPT 2 (conçu pour une version antérieure de GPT), ont rarement réussi et souvent incohérents. J’ai alimenté ce détecteur de deux scènes produites par ChatGPT, une scène de comédie romantique et la scène de film noir précitée. Le détecteur a signalé la comédie romantique comme étant générée par l’IA, tout en considérant la scène du film noir comme « réelle à 99,98 % ». De plus, cet outil a complètement échoué à détecter d’autres types de contenu ChatGPT, comme une déclaration de candidature pour une faculté de droit qui était complètement générique, sans même le nom de la faculté de droit, le nom de l’étudiant et tout domaine de pratique souhaité ou expérience préalable.
Et lorsque j’ai ajouté des mots moins courants ou prévisibles ou une faute de frappe, ce détecteur a rendu un « vrai » verdict sur une sortie AI précédemment signalée. Quelques jours plus tard, par exemple, le détecteur de sortie GPT 2 a pu détecter une autre application universitaire générique produite par ChatGPT. Mais lorsque j’ai ajusté l’application pour inclure un mot mal orthographié (« partaken » au lieu de « partaken »), le détecteur a maintenant jugé l’application comme étant « réelle à 99,92 % »:
Un autre outil, GLTR, utilise également une méthode de détection de la prévisibilité des mots dans la sortie AI pour déterminer si elle est générée par la machine. Le problème est que ses ratios de prévisibilité du texte généré par l’IA par rapport au texte généré par l’homme étaient souvent similaires, du moins selon mes tests. Cela signifie que si un enseignant, par exemple, utilise cet outil pour déterminer si un devoir a été écrit frauduleusement par une IA, les résultats pourraient être peu fiables et préjudiciables aux étudiants.
L’écriture générée par l’IA a toujours un caractère distinctif Marqueurs même si aucun outil automatisé ne peut le détecter. Ces marqueurs comprennent écriture fade qui met l’accent sur les points communs et les clichés, un manque de voix personnelle, des citations et des références manquantes, un séquençage stéréotypé des idées et des déclarations banales ou erronées. Les entreprises d’IA ont été prometteur pour « filigraner » leurs produits pour prévenir la fraude, mais en attendant, les lecteurs, les éducateurs et les chercheurs peuvent instituer des procédures simples pour détecter l’écriture générée par l’IA, même en l’absence d’outils technologiques capables de signaler une telle écriture et même lorsque le texte généré par l’IA a été légèrement modifié pour paraître humain :
But
Une façon de procéder consiste à se demander si un article, une candidature universitaire ou un travail d’écriture donné a un objectif primordial qui l’alimente et un investissement personnel qui le propulse vers l’avant. Une telle preuve de but peut se présenter à travers une question soutenue qui imprègne le texte, ou des détails biographiques uniques ou des points de vue qui sont également conformes à ce que l’on sait de l’auteur.
Processus
D’autres questions pourraient concerner le processus d’écriture lui-même. Y a-t-il, par exemple, des preuves d’un processus de recherche ou une mention de sources consultées ? En outre, y a-t-il des preuves de voies de recherche moins fructueuses qui ont été poursuivies mais qui n’ont produit aucun résultat ? L’auteur a-t-il, par exemple, consulté un ouvrage ou poursuivi une enquête qui n’a pas porté ses fruits ou s’est avérée sans rapport avec le sujet ? Ce sont les détails exacts qu’un modèle d’IA aurait du mal à imiter, précisément parce qu’il est conçu pour mettre en évidence les perceptions et les idées communes sur un sujet plutôt que les processus de recherche qui les sous-tendent.
Originalité
On peut également poser des questions sur la mesure dans laquelle un article présente des perspectives nouvelles ou uniques sur un sujet. Y a-t-il, par exemple, une revendication spécifique qu’un article ou une cession fait ? Comment l’écriture se positionne-t-elle par rapport aux travaux antérieurs sur un sujet ? Un type d’écriture dialogique, dans lequel l’auteur fait entendre sa propre voix unique, est une marque de original en train d’écrire.
Certes, les modèles de langage de l’IA peuvent potentiellement être d’excellents assistants de recherche qui nous aident à découvrir ce que l’on sait sur un sujet d’intérêt. Mais ChatGPT dans sa conception actuelle ne fait rien de tel car il n’est pas transparent sur ses sources. Nous n’avons aucun moyen de savoir d’où proviennent ses informations, si elles sont fiables, à jour ou impartiales, et à qui s’adresser. crédit pour ça. Pour ces raisons, ChatGPT ne nous donne que l’illusion de la connaissance, au lieu de la faciliter.
Mais l’un des avantages de l’écriture générée par l’IA dans sa forme actuelle est qu’elle nous aide à affiner notre discernement de la régurgitation aveugle et non attribuée des idées passées, par opposition à une véritable enquête intellectuelle, que le processus d’écriture est censé incarner et consacrer au profit d’autres. Et dans ce processus de création, il n’y a pas de solutions ou de raccourcis faciles, ni pour l’auteur ni pour le lecteur.