Campaigning for information literacy

Search
Close this search box.

Médias sociaux : La personnalisation des interfaces en fonction des différences individuelles peut modifier positivement l’expérience de l’utilisateur

Selon une étude publiée récemment, la méfiance d’une personne à l’égard des humains permet de prédire qu’elle aura davantage confiance dans la capacité de l’intelligence artificielle à modérer le contenu en ligne. Selon les chercheurs, ces résultats ont des implications pratiques pour les concepteurs et les utilisateurs d’outils d’intelligence artificielle dans les médias sociaux.

“Nous avons constaté que les personnes qui ont moins confiance dans les autres humains font systématiquement plus confiance à la classification de l’IA”, a déclaré S. Shyam Sundar, titulaire de la chaire James P. Jimirro sur les effets des médias à Penn State. “D’après notre analyse, cela semble être dû au fait que les utilisateurs invoquent l’idée que les machines sont précises, objectives et exemptes de tout parti pris idéologique.”

L’étude, intitulée Est-ce que la méfiance envers les humains prédit une plus grande confiance envers l’IA ? Le rôle des différences individuelles dans les réponses des utilisateurs à la modération du contenu, publiée dans la revue New Media & Society, a révélé que les utilisateurs ayant une idéologie politique conservatrice étaient plus susceptibles de faire confiance à la modération par l’IA. Mme Molina et son coauteur, M. Sundar, qui codirige également le Media Effects Research Laboratory de Penn State, ont déclaré que ce phénomène pouvait découler d’une méfiance à l’égard des médias grand public et des entreprises de médias sociaux.

L’étude a également révélé que les “power users“, qui sont des utilisateurs expérimentés des technologies de l’information, avaient la tendance inverse. Ils faisaient moins confiance aux modérateurs de l’IA car ils pensaient que les machines n’avaient pas la capacité de détecter les nuances du langage humain.

L’étude a révélé que les différences individuelles, telles que la méfiance à l’égard des autres et l’utilisation du pouvoir, permettent de prédire si les utilisateurs invoqueront les caractéristiques positives ou négatives des machines lorsqu’ils seront confrontés à un système de modération de contenu basé sur l’IA, ce qui influencera finalement leur confiance envers le système.

Les chercheurs suggèrent que la personnalisation des interfaces en fonction des différences individuelles peut modifier positivement l’expérience des utilisateurs. Dans l’étude, le type de modération du contenu consiste à surveiller les messages publiés sur les médias sociaux afin de détecter les contenus problématiques tels que les discours haineux et les idées suicidaires.

Les chercheurs ont recruté 676 participants aux États-Unis. Ils leur ont dit qu’ils contribuaient à tester un système de modération de contenu en cours de développement. Ils ont reçu des définitions de discours haineux et d’idées suicidaires, suivies de quatre messages différents sur les médias sociaux. Les messages étaient soit signalés comme correspondant à ces définitions, soit non signalés. Les participants ont également été informés si la décision de signaler ou non le message était prise par l’IA, un humain ou une combinaison des deux.

La démonstration a été suivie d’un questionnaire qui interrogeait les participants sur leurs différences individuelles. Les différences portaient notamment sur leur tendance à se méfier des autres, leur idéologie politique, leur expérience de la technologie et leur confiance dans l’IA.

Selon Molina et Sundar, leurs résultats pourraient contribuer à façonner l’acceptation future de l’IA. En créant des systèmes adaptés à l’utilisateur, les concepteurs pourraient atténuer le scepticisme et la méfiance, et susciter une confiance appropriée dans l’IA.


Nous nous efforçons de vous apporter les informations et les outils les plus récents de vérification des faits. Faites un don chaque fois que vous lisez de la désinformation et l’argent sera utilisé pour payer une annonce de vérification des faits


Eine einmalige Spende tätigen

Your contribution is appreciated.

Spenden


Make a monthly donation

Your contribution is appreciated.

Spenden


Make a yearly donation

Your contribution is appreciated.

Spenden

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Protégez vous contre la désinformation

Pour lutter contre la désinformation, les escroqueries et la manipulation, il faut donner la priorité à l’éducation à l’information et aux médias. Informez-vous et informez les autres sur les stratégies de désinformation, cultivez votre discernement et remettez en question vos motivations afin de faire des choix éclairés. En outre, soutenir le journalisme indépendant, les organisations de vérification des faits et les sources d’information fiables joue un rôle crucial dans la lutte contre la propagation de la désinformation.

Pour rester informé et responsabilisé : Inscrivez-vous pour recevoir la lettre d’information de ReclaimTheFacts et nos derniers outils et matériels d’éducation aux médias et à l’information directement dans votre boîte de réception. Vous pouvez également nous suivre sur les médias sociaux pour des mises à jour régulières.

Nous travaillons assidûment pour fournir des informations éducatives de qualité sur la littératie médiatique. Votre don contribuera aux efforts de publicité, élargissant la portée de ces ressources sur les réseaux sociaux. Soutenez notre cause et aidez-nous à autonomiser davantage de personnes grâce à l’éducation.