Selon une étude publiée récemment, la méfiance d’une personne à l’égard des humains permet de prédire qu’elle aura davantage confiance dans la capacité de l’intelligence artificielle à modérer le contenu en ligne. Selon les chercheurs, ces résultats ont des implications pratiques pour les concepteurs et les utilisateurs d’outils d’intelligence artificielle dans les médias sociaux.
“Nous avons constaté que les personnes qui ont moins confiance dans les autres humains font systématiquement plus confiance à la classification de l’IA”, a déclaré S. Shyam Sundar, titulaire de la chaire James P. Jimirro sur les effets des médias à Penn State. “D’après notre analyse, cela semble être dû au fait que les utilisateurs invoquent l’idée que les machines sont précises, objectives et exemptes de tout parti pris idéologique.”
L’étude, intitulée Est-ce que la méfiance envers les humains prédit une plus grande confiance envers l’IA ? Le rôle des différences individuelles dans les réponses des utilisateurs à la modération du contenu, publiée dans la revue New Media & Society, a révélé que les utilisateurs ayant une idéologie politique conservatrice étaient plus susceptibles de faire confiance à la modération par l’IA. Mme Molina et son coauteur, M. Sundar, qui codirige également le Media Effects Research Laboratory de Penn State, ont déclaré que ce phénomène pouvait découler d’une méfiance à l’égard des médias grand public et des entreprises de médias sociaux.
L’étude a également révélé que les “power users“, qui sont des utilisateurs expérimentés des technologies de l’information, avaient la tendance inverse. Ils faisaient moins confiance aux modérateurs de l’IA car ils pensaient que les machines n’avaient pas la capacité de détecter les nuances du langage humain.
L’étude a révélé que les différences individuelles, telles que la méfiance à l’égard des autres et l’utilisation du pouvoir, permettent de prédire si les utilisateurs invoqueront les caractéristiques positives ou négatives des machines lorsqu’ils seront confrontés à un système de modération de contenu basé sur l’IA, ce qui influencera finalement leur confiance envers le système.
Les chercheurs suggèrent que la personnalisation des interfaces en fonction des différences individuelles peut modifier positivement l’expérience des utilisateurs. Dans l’étude, le type de modération du contenu consiste à surveiller les messages publiés sur les médias sociaux afin de détecter les contenus problématiques tels que les discours haineux et les idées suicidaires.
Les chercheurs ont recruté 676 participants aux États-Unis. Ils leur ont dit qu’ils contribuaient à tester un système de modération de contenu en cours de développement. Ils ont reçu des définitions de discours haineux et d’idées suicidaires, suivies de quatre messages différents sur les médias sociaux. Les messages étaient soit signalés comme correspondant à ces définitions, soit non signalés. Les participants ont également été informés si la décision de signaler ou non le message était prise par l’IA, un humain ou une combinaison des deux.
La démonstration a été suivie d’un questionnaire qui interrogeait les participants sur leurs différences individuelles. Les différences portaient notamment sur leur tendance à se méfier des autres, leur idéologie politique, leur expérience de la technologie et leur confiance dans l’IA.
Selon Molina et Sundar, leurs résultats pourraient contribuer à façonner l’acceptation future de l’IA. En créant des systèmes adaptés à l’utilisateur, les concepteurs pourraient atténuer le scepticisme et la méfiance, et susciter une confiance appropriée dans l’IA.
Nous nous efforçons de vous apporter les informations et les outils les plus récents de vérification des faits. Faites un don chaque fois que vous lisez de la désinformation et l’argent sera utilisé pour payer une annonce de vérification des faits
Eine einmalige Spende tätigen
Your contribution is appreciated.
Spenden
Make a monthly donation
Your contribution is appreciated.
Spenden
Make a yearly donation
Your contribution is appreciated.
Spenden