Alors que l’IA est un outil puissant qui présente de nombreux avantages dans diverses industries, les dangers de l’IA dans la propagation de la désinformation et des récits faux sont une préoccupation croissante. Les gouvernements doivent prendre des mesures collectives et établir un cadre international pour garantir que l’IA est utilisée pour le bénéfice de la société et non pour propager de fausses informations. Les risques sont réels, et le temps d’agir est maintenant.
Une étude récente menée par NewsGuard, une société qui surveille et recherche la désinformation en ligne, a révélé que les dangers potentiels de l’IA dans la désinformation en ligne augmentent. L’étude a examiné la version la plus récente du chatbot d’IA d’OpenAI, ChatGPT-4, et a découvert que le dernier modèle du chatbot était plus susceptible de générer de la désinformation et plus convaincant dans sa capacité à le faire que le modèle précédent.
Les chercheurs de NewsGuard ont pu contourner les protections de ChatGPT destinées à empêcher les utilisateurs de générer du contenu potentiellement nuisible. Ils ont pu inciter ChatGPT à générer 100 récits faux, qui manquaient souvent de mentions légales informant l’utilisateur que le contenu créé contredisait la science établie ou d’autres preuves factuelles.
Les militants pour le climat sont préoccupés par ce que l’IA pourrait signifier pour un paysage en ligne déjà rempli d’allégations trompeuses et fausses sur le réchauffement climatique. Plusieurs entreprises dotées de chatbots d’IA, dont OpenAI, Microsoft et Google, ont réagi aux préoccupations croissantes concernant leurs produits en créant des garde-fous destinés à atténuer la capacité des utilisateurs à générer du contenu nuisible, y compris de la désinformation. NewsGuard a appelé les nations à adopter des réglementations qui abordent spécifiquement les dangers posés par l’intelligence artificielle, espérant établir un jour un cadre international sur la question.
RISQUES IMPORTANTS À METTRE EN ÉVIDENCE :
- Les développeurs d’IA ne parviennent pas à empêcher leurs produits d’être utilisés à des fins néfastes, notamment pour propager des théories du complot et des allégations trompeuses sur le changement climatique.
- ChatGPT-4 d’OpenAI était plus susceptible de générer de la désinformation et plus convaincant dans sa capacité à le faire que le modèle précédent.
- Les réponses manquaient souvent de mentions légales informant l’utilisateur que le contenu créé contredisait la science établie ou d’autres preuves factuelles.
- Les outils d’IA pourraient être dangereux entre de mauvaises mains, permettant à quiconque de créer de grandes quantités de contenu réaliste mais faux sans avoir besoin des temps, des ressources ou des compétences nécessaires auparavant.
- La technologie est maintenant assez puissante pour écrire des essais académiques entiers, réussir des examens de droit, imiter de manière convaincante la voix de quelqu’un et même produire une vidéo de personne au look réaliste.
- Les gens ont utilisé l’IA pour générer du contenu complètement fabriqué et étonnamment réaliste, y compris des vidéos du président Joe Biden déclarant une conscription nationale, des photos de l’ancien président Donald Trump en train d’être arrêté et une chanson présentant la voix de Kanye West.
- Le contenu généré par l’IA peut devenir viral sur les médias sociaux, et de nombreux utilisateurs ne divulguent pas qu’il est généré par l’IA.
- Les militants pour le climat sont particulièrement préoccupés par ce que l’IA pourrait signifier pour un paysage en ligne où la recherche montre déjà que les allégations trompeuses et fausses sur le réchauffement climatique sont répandues.
En conclusion, l’étude révèle comment ces outils peuvent être utilisés à des fins malveillantes pour propager de la désinformation à un coût beaucoup moins élevé et à une vitesse plus rapide que ce que nous avons vu auparavant.
Ce post est basé sur l’article de Newsguard : « Despite OpenAI’s Promises, the Company’s New AI Tool Produces Misinformation More Frequently, and More Persuasively, than its Predecessor ».