Cependant, de nombreux experts, moi inclus, avons constaté que cet outil n’est pas fiable pour vérifier le contenu généré par une IA, surtout pour les personnes dont l’anglais n’est pas la langue maternelle. Lors de mes tests, j’ai découvert que le classificateur d’IA d’OpenAI identifiait du contenu écrit par des humains comme étant généré par une IA. Comme l’entreprise n’a pas expliqué comment cela fonctionne, il semble qu’il vérifie la grammaire, la ponctuation, l’orthographe et le format de l’article pour trouver des motifs correspondant au modèle GPT. Les IA sont généralement plus intelligentes que les humains, mais elles peuvent aussi faire des erreurs. Heureusement, il existe plusieurs outils permettant d’écrire un contenu grammaticalement parfait et bien formaté.

Qu’est-ce que le classificateur de texte d’OpenAI ?

Cet outil détermine si le contenu a été écrit par un humain ou une machine. Il a été développé par la même société de recherche qui a créé ChatGPT. L’objectif est de prévenir la propagation de campagnes de désinformation, de fraudes académiques et d’usurpation d’identité humaine par des chatbots. Plusieurs institutions, comme les écoles publiques de New York et de Seattle, ont interdit l’utilisation de ChatGPT par les étudiants et les enseignants, et certaines entreprises ont interdit les outils d’IA générale.

Les modèles de langage IA sont entraînés sur de vastes quantités de données, y compris du texte écrit, ce qui permet à l’IA générale de reproduire le comportement humain. Cela lui permet de générer du contenu de manière conversationnelle et de comprendre le langage naturel avec une fluidité comparable à celle des humains. Au fil du temps, le modèle continuera à évoluer. L’entreprise a annoncé le détecteur en 2019, en même temps que son modèle de langage étendu (LLM).

L’outil est disponible gratuitement, et pour vérifier le contenu, les utilisateurs doivent saisir un minimum de 1000 caractères, ce qui correspond à environ 150 à 250 mots, pour effectuer le test. Une fois le test terminé, il fournira une évaluation dans la plage suivante :

  • Très peu probable : Moins de 10% de chances
  • Peu probable : Entre 10% et 45% de chances
  • Incertain : Entre 45% et 90% de chances
  • Probable : Entre 90% et 98% de chances
  • Très probable : Plus de 98% de chances

En attendant, nous disposons également de Turnitin pour les écoles et les universités afin de lutter contre le plagiat, mais il n’est pas clair dans quelle mesure il est précis. À l’heure actuelle, une étude récente menée par des informaticiens de l’Université du Maryland suggère que Turnitin est l’un des meilleurs classificateurs disponibles. Le contenu généré par des humains est censé avoir plus de variations avec le texte que vous collez, contrairement à un article parfait, donc prenez cela avec un grain de sel et ne vous fiez pas entièrement au classificateur d’IA d’OpenAI.

Pourquoi le classificateur d’IA d’OpenAI a-t-il été abandonné ?

Malgré sa popularité, il est actuellement impossible de déterminer si le contenu est écrit à 100% par une IA ou par des humains. Avec quelques modifications mineures, il est assez facile de contourner le classificateur. Suite au problème avec le classificateur d’OpenAI, l’entreprise a déclaré que ce n’est pas la seule preuve que le contenu est généré par une IA.

En raison d’un taux de précision faible, OpenAI a arrêté le Classificateur d’IA dans les 6 mois suivant sa sortie. Étant donné que le Classificateur d’OpenAI a été accusé et critiqué pour avoir créé de la confusion, l’entreprise a déclaré qu’elle améliorait le Classificateur d’IA en recueillant tous les commentaires et en recherchant des méthodes plus efficaces pour détecter le contenu généré par l’IA. L’entreprise travaille à résoudre ce problème et récemment, Microsoft a financé un laboratoire qui s’est engagé à développer des filigranes numériques pour le contenu généré par l’IA, promettant ainsi de contribuer à rendre la technologie d’apprentissage automatique de nouvelle génération sûre à utiliser.

Il est important d’avoir un outil pour détecter le contenu généré par machine afin d’assurer l’équité, la responsabilité et la transparence. À mesure que ce contenu se développe, nous avons besoin d’outils et de garanties pour nous protéger contre les biais et les désinformations. Il est également important de se rappeler que nous ne pouvons pas nous fier uniquement à ces outils. La Federal Trade Commission (FTC) enquête sur les pratiques de vérification des informations et des données d’OpenAI, mais OpenAI n’a pas encore publié le rapport.

Certains textes sont faciles à repérer, mais d’autres ne le sont pas, et même s’ils sont détectés, on peut les contourner en ajustant la formulation. Nous pourrions voir une méthode de filigrane et/ou de détection robuste dans toutes les principales entreprises de recherche en intelligence artificielle générale, y compris OpenAI, car elles ont rejoint l’« Engagement volontaire » dirigé par la Maison Blanche pour développer l’IA de manière éthique et transparente. Ces actions soulèvent des préoccupations quant à l’utilisation de l’AGI et aux techniques derrière les outils d’IA générative qui sont équipés de garanties de construction.

By Bartlett Alexandre

Bartlett Alexandre est un éditeur de sa propre colonne personnelle depuis 2016, ayant plus de 5 ans d'expérience dans le domaine des articles techniques. Ses articles se concentrent principalement sur la gestion des technologies et des informations sur l'IA, aidant les utilisateurs à résoudre certains problèmes et enjeux lorsqu'ils utilisent leurs technologies. En dehors de son travail, Bartlett est un passionné de la vie, un amateur de jeux vidéo et écrit parfois des articles sur l'actualité des jeux. Dans ses temps libres, il aime jouer à des jeux, lire des articles et profiter de la vie.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *