Campaigning for information literacy

Suche
Close this search box.

Risiken künstlicher Intelligenz bei der Verbreitung von Fehlinformationen über den Klimawandel

Künstliche Intelligenz (KI) ist ein leistungsfähiges Werkzeug. Es bietet in vielerlei Hinsicht Vorteile, ist aber zunehmend eine Gefahr bei der Verbreitung von Fehlinformationen. Die Regierungen sollten ein gemeinsames Vorgehen erarbeiten und einen internationalen Rahmen schaffen und so sicherzustellen, dass KI zum Nutzen der Gesellschaft und nicht zur Verbreitung von Fehlinformationen eingesetzt wird.

Eine Studie von NewsGuard zeigt, dass die potenziellen Gefahren von KI bei Fehlinformationen zunehmen. NewsGuard ist ein Unternehmen, das Online-Fehlinformationen überwacht und erforscht. Die Studie untersuchte die neueste Version des KI-Chatbots von OpenAI, ChatGPT-4. Die Forscher stellten fest, dass das neueste Modell des KI-Chatbots anfälliger für die Erzeugung von Fehlinformationen ist. Und die Texte erstellte der KI-Chatbot zudem in einer überzeugenderen Manier als der Vorgänger ChatGPT-3.

Die Forscher von NewsGuard, konnten die eingebauten Sicherheitsvorkehrungen von ChatGPT-4 umgehen, die Benutzer hindern sollen, potenziell schädliche Inhalte zu erstellen. Es gelang ihnen, ChatGPT-4 dazu zu bringen, 100 falsche Berichte zu erstellen, die häufig keinen Hinweis darauf enthielten, dass die erstellten Inhalte im Widerspruch zu anerkannten wissenschaftlichen Erkenntnissen oder anderen Fakten standen.

Klimaaktivisten sind besorgt darüber, was KI für eine Online-Landschaft bedeuten könnte, die bereits von irreführenden und falschen Behauptungen über die globale Erwärmung überschwemmt ist. Mehrere Unternehmen, darunter OpenAI, Microsoft und Google, haben auf die zunehmende Kritik Produkte reagiert und haben Leitplanken geschaffen, die die Fähigkeit der Nutzer einschränken sollen, schädliche Inhalte einschliesslich Fehlinformationen zu erstellen.

NewsGuard hat die Staatenwelt aufgefordert, Vorschriften zu erlassen, die sich speziell mit den von künstlicher Intelligenz ausgehenden Gefahren befassen. in der Hoffnung, eines Tages einen internationalen Rahmen zu diesem Thema zu schaffen.

Risiken von KI-Tools

KI-Entwickler verhindern nicht, dass ihre Produkte für missbräuchliche Zwecke, wie die Verbreitung von Verschwörungstheorien oder irreführenden Behauptungen über den Klimawandel, eingesetzt werden.

ChatGPT-4 von OpenAI ist anfälliger für die Erzeugung von Fehlinformationen und überzeugender in seiner Fähigkeit, dies zu tun, als das vorherige Modell.

In den Antworten fehlten häufig Disclaimer, die den Nutzer darauf hinweisen, dass die erstellten Inhalte im Widerspruch zu anerkannten wissenschaftlichen Erkenntnissen oder anderen Fakten stehen.

KI-Tools ermöglichen es jedem, grosse Mengen an gefälschtem Material zu erstellen. Dies erfordert zudem weder die Zeit, noch die Ressourcen oder das Fachwissen, das früher dafür erforderlich waren.

Die Technologie ist heute leistungsfähig genug, um akademische Aufsätze zu schreiben, juristische Prüfungen zu bestehen, die Stimme einer Person überzeugend nachzuahmen und sogar realistisch aussehende Videos von einer Person zu produzieren.

KI-Tools werden dafür eingesetzt, frei erfundene und überraschend realistische Inhalte zu erzeugen. Zum Beispiel wurden Videos von US-Präsident Joe Biden generiert, der eine nationale Wehrpflicht ausruft. Oder Fotos des ehemaligen US-Präsidenten Donald Trump bei seiner Verhaftung erstellt. Oder auch einen Song mit der Stimme von Kanye West produziert.

KI-generierte Inhalte können sich in den sozialen Medien viral verbreiten und kaum ein Nutzer gibt an, dass die Inhalte von KI generiert wurden.

Klimaaktivisten sind besonders besorgt darüber, was KI für eine Online-Landschaft bedeuten könnte. Denn auch ohne KI gibt es bereits viele irreführende und falsche Behauptungen über die globale Erwärmung.

Zusammenfassend zeigt die Studie, wie diese Tools von böswilligen Akteuren als Waffe eingesetzt werden können, um Fehlinformationen viel billiger und schneller zu verbreiten, als wir es bisher erlebt haben.

Vollständiger Newsguard-Artikel: Trotz der Versprechen von OpenAI produziert das neue KI-Tool des Unternehmens häufiger und überzeugender Fehlinformationen als sein Vorgänger

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kampf gegen Desinformation

Die Bekämpfung von Desinformation und Manipulation zeigt, wie wichtig Informations- und Medienkompetenz ist. Informieren dich über Desinformationsstrategien, fördere dein Urteilsvermögen und hinterfrage die Motivation, fundierte Entscheidungen zu treffen. Darüber hinaus spielt die Unterstützung unabhängigen Journalismus, Faktenprüforganisationen und zuverlässiger Informationsquellen eine entscheidende Rolle bei der Bekämpfung der Verbreitung von Fehlinformationen

Melde dich für unseren Newsletter an, um informiert zu bleiben und unsere neuesten Unterlagen und Werkzeuge zur Medien- und Informationskompetenz direkt in deinen Posteingang zu erhalten.

Wir arbeiten unermüdlich daran, Informationen zur Medien- und Informationskompetenz bereitzustellen. Unterstütze uns und hilf, mehr Menschen durch Bildung gegen Desinformation zu stärken.