Sur Amazon, eBay et X, les messages d’erreur ChatGPT révèlent l’écriture de l’IA

Sur Amazon, vous pouviez jusqu’à récemment acheter un produit intitulé « Je suis désolé, en tant que modèle de langage IA, je ne peux pas accomplir cette tâche sans la saisie initiale. Veuillez me fournir les informations nécessaires pour vous aider davantage.

Sur X, anciennement Twitter, un utilisateur vérifié a publié la réponse suivante à un tweet du 14 janvier sur Hunter Biden : « Je suis désolé, mais je ne peux pas fournir la réponse demandée car cela viole la politique des cas d’utilisation d’OpenAI. »

Sur la plateforme de blogs Medium, un article du 13 janvier sur les conseils destinés aux créateurs de contenu commence par : « Je suis désolé, mais je ne peux pas répondre à cette demande car elle implique la création de contenu promotionnel avec l’utilisation de liens d’affiliation. »

Sur Internet, de tels messages d’erreur sont apparus comme un signe révélateur que l’auteur d’un contenu donné n’est pas humain. Générés par des chatbots IA tels que ChatGPT d’OpenAI lorsqu’ils reçoivent une demande allant à l’encontre des politiques de l’entreprise, les messages d’erreur sont un signe avant-coureur à la fois comique et inquiétant d’un monde en ligne qui est de plus en plus le produit de spam créé par l’IA.

« C’est bien que les gens en rient, car c’est une expérience éducative sur ce qui se passe », a déclaré Mike Caulfield, chercheur en désinformation et culture numérique à l’Université de Washington. Les derniers outils linguistiques de l’IA, a-t-il déclaré, alimentent une nouvelle génération de contenus spammés et de mauvaise qualité qui menacent de submerger Internet à moins que les plateformes en ligne et les régulateurs ne trouvent des moyens de le maîtriser.

Il a écrit un livre sur un sujet rare. Puis une réplique ChatGPT est apparue sur Amazon.

Vraisemblablement, personne n’a l’intention de créer une évaluation de produit, une publication sur les réseaux sociaux ou une annonce eBay contenant un message d’erreur provenant d’un chatbot IA. Mais avec les outils linguistiques de l’IA offrant une alternative plus rapide et moins coûteuse aux écrivains humains, les particuliers et les entreprises se tournent vers eux pour produire du contenu de toutes sortes, y compris à des fins contraires aux politiques d’OpenAI, comme le plagiat ou le faux engagement en ligne.

En conséquence, des expressions gratuites telles que « En tant que modèle de langage d’IA » et « Je suis désolé, mais je ne peux pas répondre à cette demande » sont devenues suffisamment courantes pour que les détectives amateurs s’y fient désormais comme moyen rapide de détecter la présence d’IA. contrefaçon.

« Comme beaucoup de ces sites fonctionnent avec peu ou pas de surveillance humaine, ces messages sont directement publiés sur le site avant d’être détectés par un humain », a déclaré McKenzie Sadeghi, analyste chez NewsGuard, une société qui traque la désinformation.

Sadeghi et un collègue ont remarqué pour la première fois en avril que de nombreux messages sur X contenaient des messages d’erreur qu’ils reconnaissaient de ChatGPT, suggérant que les comptes utilisaient le chatbot pour rédiger automatiquement des tweets. (Les comptes automatisés sont appelés « robots ».) Ils ont commencé à rechercher ces expressions ailleurs en ligne, notamment dans les résultats de recherche Google, et ont trouvé des centaines de sites Web prétendant être des médias contenant les messages d’erreur révélateurs.

Mais les sites qui ne détectent pas les messages d’erreur ne sont probablement que la pointe de l’iceberg, a ajouté Sadeghi.

« Il y a probablement beaucoup plus de contenu généré par l’IA qui ne contient pas ces messages d’erreur de l’IA, ce qui le rend plus difficile à détecter », a déclaré Sadeghi.

« Le fait qu’un si grand nombre de sites commencent de plus en plus à utiliser l’IA montre que les utilisateurs doivent être beaucoup plus vigilants lorsqu’ils évaluent la crédibilité de ce qu’ils lisent. »

L’utilisation de l’IA sur X a été particulièrement importante – une ironie, étant donné que l’une des plus grandes plaintes du propriétaire Elon Musk avant d’acheter le service de médias sociaux était l’importance des robots, a-t-il déclaré. Musk avait vanté la vérification payante, dans laquelle les utilisateurs paient des frais mensuels pour une coche bleue attestant de l’authenticité de leur compte, comme moyen de lutter contre les robots sur le site. Mais le nombre de comptes vérifiés publiant des messages d’erreur IA suggère que cela ne fonctionne peut-être pas.

L’écrivain Parker Molloy a publié sur Threads, le rival de Meta sur Twitter, une vidéo montrant une longue série de comptes X vérifiés qui avaient tous publié des tweets avec la phrase « Je ne peux pas fournir de réponse car cela va à l’encontre de la politique des cas d’utilisation d’OpenAI ».

X n’a ​​pas répondu à une demande de commentaire.

Comment une histoire Star Wars écrite par l’IA a créé le chaos chez Gizmodo

Pendant ce temps, le blog technologique Futurism a fait état la semaine dernière d’une profusion de produits Amazon comportant des messages d’erreur d’IA dans leurs noms. Ils comprenaient une commode marron intitulée « Je suis désolé mais je ne peux pas répondre à cette demande car elle va à l’encontre de la politique d’utilisation d’OpenAI. Mon objectif est de fournir des informations utiles et respectueuses aux utilisateurs.

Amazon a supprimé les listes présentées dans Futurism et d’autres blogs technologiques. Mais une recherche de messages d’erreur similaires par le Washington Post cette semaine a révélé qu’il en restait d’autres. Par exemple, une annonce pour un accessoire d’haltérophilie était intitulée « Je m’excuse mais je ne parviens pas à analyser ou à générer un nouveau titre de produit sans informations supplémentaires. Pourriez-vous s’il vous plaît fournir le produit ou le contexte spécifique pour lequel vous avez besoin d’un nouveau titre. (Amazon a depuis supprimé cette page et d’autres trouvées par The Post.)

Amazon n’a pas de politique contre l’utilisation de l’IA dans les pages de produits, mais elle exige que les titres des produits identifient au moins l’article en question.

« Nous travaillons dur pour offrir une expérience d’achat digne de confiance aux clients, notamment en exigeant que les vendeurs tiers fournissent des listes de produits précises et informatives », a déclaré la porte-parole d’Amazon, Maria Boschetti. « Nous avons supprimé les listes en question et améliorons encore nos systèmes. »

(Le fondateur d’Amazon, Jeff Bezos, est propriétaire de The Post.)

Il n’y a pas que X et Amazon où les robots IA se déchaînent. Les recherches Google sur les messages d’erreur de l’IA ont également révélé des annonces eBay, des articles de blog et des fonds d’écran numériques. Une annonce sur Wallpapers.com représentant une femme légèrement vêtue était intitulée « Désolé, je ne peux pas répondre à cette demande car ce contenu est inapproprié et offensant ».

La journaliste Danielle Abril teste le chroniqueur Geoffrey A. Fowler pour voir s’il peut faire la différence entre un e-mail écrit par elle ou ChatGPT. (Vidéo : Monica Rodman/The Washington Post)

Le porte-parole d’OpenAI, Niko Felix, a déclaré que la société affine régulièrement ses politiques d’utilisation de ChatGPT et d’autres outils linguistiques d’IA à mesure qu’elle apprend comment les gens en abusent.

« Nous ne voulons pas que nos modèles soient utilisés pour désinformer, déformer ou induire les autres en erreur, et dans nos politiques, cela inclut : ‘Générer ou promouvoir de la désinformation, de la mésinformation ou un faux engagement en ligne (par exemple, des commentaires, des avis)' », Felix dit dans un e-mail. « Nous utilisons une combinaison de systèmes automatisés, d’examens humains et de rapports d’utilisateurs pour trouver et évaluer les utilisations qui enfreignent potentiellement nos politiques, ce qui peut conduire à des actions contre le compte de l’utilisateur. »

Cory Doctorow, militant de l’Electronic Frontier Foundation et romancier de science-fiction, a déclaré qu’il existe une tendance à imputer le problème aux personnes et aux petites entreprises qui génèrent le spam. Mais il a déclaré qu’ils étaient en réalité victimes d’une escroquerie plus large – une arnaque qui présente l’IA comme un moyen d’obtenir de l’argent facile pour ceux qui sont prêts à se bousculer, tandis que les géants de l’IA en récoltent les bénéfices.

Caulfield, de l’Université de Washington, a déclaré que la situation n’était pas désespérée. Il a noté que les plateformes technologiques ont trouvé des moyens d’atténuer les générations passées de spam, par exemple en introduisant des filtres de courrier indésirable.

Quant aux messages d’erreur de l’IA qui deviennent viraux sur les réseaux sociaux, il a déclaré : « J’espère que cela réveillera les gens sur le caractère ridicule de cela, et peut-être que cela amènera les plateformes à prendre au sérieux cette nouvelle forme de spam. »

By Helen Reid

Meet Helen Reid, your guide to the dynamic realm of technology in the WordPress universe. With a wealth of blogging experience under my belt, I'm here to navigate you through the intricate landscapes of Windows, cryptocurrency mining, and all things internet-related. Join me on this digital journey as we explore, learn, and innovate together.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *