Campaigning for information literacy

Search
Close this search box.

Explorer les risques de l’IA dans la diffusion de la désinformation sur le changement climatique

Alors que l’IA est un outil puissant qui présente de nombreux avantages dans diverses industries, les dangers de l’IA dans la propagation de la désinformation et des récits faux sont une préoccupation croissante. Les gouvernements doivent prendre des mesures collectives et établir un cadre international pour garantir que l’IA est utilisée pour le bénéfice de la société et non pour propager de fausses informations. Les risques sont réels, et le temps d’agir est maintenant.

Une étude récente menée par NewsGuard, une société qui surveille et recherche la désinformation en ligne, a révélé que les dangers potentiels de l’IA dans la désinformation en ligne augmentent. L’étude a examiné la version la plus récente du chatbot d’IA d’OpenAI, ChatGPT-4, et a découvert que le dernier modèle du chatbot était plus susceptible de générer de la désinformation et plus convaincant dans sa capacité à le faire que le modèle précédent.

Les chercheurs de NewsGuard ont pu contourner les protections de ChatGPT destinées à empêcher les utilisateurs de générer du contenu potentiellement nuisible. Ils ont pu inciter ChatGPT à générer 100 récits faux, qui manquaient souvent de mentions légales informant l’utilisateur que le contenu créé contredisait la science établie ou d’autres preuves factuelles.

Les militants pour le climat sont préoccupés par ce que l’IA pourrait signifier pour un paysage en ligne déjà rempli d’allégations trompeuses et fausses sur le réchauffement climatique. Plusieurs entreprises dotées de chatbots d’IA, dont OpenAI, Microsoft et Google, ont réagi aux préoccupations croissantes concernant leurs produits en créant des garde-fous destinés à atténuer la capacité des utilisateurs à générer du contenu nuisible, y compris de la désinformation. NewsGuard a appelé les nations à adopter des réglementations qui abordent spécifiquement les dangers posés par l’intelligence artificielle, espérant établir un jour un cadre international sur la question.

RISQUES IMPORTANTS À METTRE EN ÉVIDENCE :

  • Les développeurs d’IA ne parviennent pas à empêcher leurs produits d’être utilisés à des fins néfastes, notamment pour propager des théories du complot et des allégations trompeuses sur le changement climatique.
  • ChatGPT-4 d’OpenAI était plus susceptible de générer de la désinformation et plus convaincant dans sa capacité à le faire que le modèle précédent.
  • Les réponses manquaient souvent de mentions légales informant l’utilisateur que le contenu créé contredisait la science établie ou d’autres preuves factuelles.
  • Les outils d’IA pourraient être dangereux entre de mauvaises mains, permettant à quiconque de créer de grandes quantités de contenu réaliste mais faux sans avoir besoin des temps, des ressources ou des compétences nécessaires auparavant.
  • La technologie est maintenant assez puissante pour écrire des essais académiques entiers, réussir des examens de droit, imiter de manière convaincante la voix de quelqu’un et même produire une vidéo de personne au look réaliste.
  • Les gens ont utilisé l’IA pour générer du contenu complètement fabriqué et étonnamment réaliste, y compris des vidéos du président Joe Biden déclarant une conscription nationale, des photos de l’ancien président Donald Trump en train d’être arrêté et une chanson présentant la voix de Kanye West.
  • Le contenu généré par l’IA peut devenir viral sur les médias sociaux, et de nombreux utilisateurs ne divulguent pas qu’il est généré par l’IA.
  • Les militants pour le climat sont particulièrement préoccupés par ce que l’IA pourrait signifier pour un paysage en ligne où la recherche montre déjà que les allégations trompeuses et fausses sur le réchauffement climatique sont répandues.

En conclusion, l’étude révèle comment ces outils peuvent être utilisés à des fins malveillantes pour propager de la désinformation à un coût beaucoup moins élevé et à une vitesse plus rapide que ce que nous avons vu auparavant.

Ce post est basé sur l’article de Newsguard : « Despite OpenAI’s Promises, the Company’s New AI Tool Produces Misinformation More Frequently, and More Persuasively, than its Predecessor ».

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Protégez vous contre la désinformation

Pour lutter contre la désinformation, les escroqueries et la manipulation, il faut donner la priorité à l’éducation à l’information et aux médias. Informez-vous et informez les autres sur les stratégies de désinformation, cultivez votre discernement et remettez en question vos motivations afin de faire des choix éclairés. En outre, soutenir le journalisme indépendant, les organisations de vérification des faits et les sources d’information fiables joue un rôle crucial dans la lutte contre la propagation de la désinformation.

Pour rester informé et responsabilisé : Inscrivez-vous pour recevoir la lettre d’information de ReclaimTheFacts et nos derniers outils et matériels d’éducation aux médias et à l’information directement dans votre boîte de réception. Vous pouvez également nous suivre sur les médias sociaux pour des mises à jour régulières.

Nous travaillons assidûment pour fournir des informations éducatives de qualité sur la littératie médiatique. Votre don contribuera aux efforts de publicité, élargissant la portée de ces ressources sur les réseaux sociaux. Soutenez notre cause et aidez-nous à autonomiser davantage de personnes grâce à l’éducation.