Menschen können nicht zwischen einem von Künstlicher Intelligenz – unter Verwendung von StyleGAN2 – erzeugten Gesicht und einem echten Gesicht unterscheiden, fanden Forscher heraus, die Schutzmaßnahmen zur Vermeidung von “Deepfakes” fordern.
Dr. Sophie Nightingale von der Universität Lancaster und Professor Hany Farid von der Universität von Kalifornien, Berkeley, führten Experimente durch, in denen die Teilnehmer gebeten wurden, mit StyleGAN2 synthetisierte Gesichter von echten Gesichtern zu unterscheiden und zu beurteilen, welches Vertrauen die Gesichter erwecken.
Die Ergebnisse zeigten, dass die synthetisch erzeugten Gesichter nicht nur äußerst fotorealistisch sind, sondern sich auch kaum von echten Gesichtern unterscheiden lassen und sogar als vertrauenswürdiger eingeschätzt werden.
“KI LERNT DIE GESICHTER, DIE WIR MÖGEN: Die gefälschten Gesichter wurden mit Hilfe von generativen adversen Netzwerken (GANs) erstellt, KI-Programmen, die durch einen Prozess von Versuch und Irrtum lernen, realistische Gesichter zu erzeugen.
IST ES MÖGLICH, EIN VON DER KI ERZEUGTES GESICHT ZU IDENTIFIZIEREN? THISPERSONDOESNOTEXIST.COM
Der KI-Gesichtsgenerator wird von StyleGAN angetrieben, einem neuronalen Netzwerk von Nvidia, das 2018 entwickelt wurde. GAN besteht aus 2 konkurrierenden neuronalen Netzwerken, von denen eines etwas generiert und das zweite versucht, herauszufinden, ob die Ergebnisse echt sind oder vom ersten generiert wurden. Das Training endet, wenn das erste neuronale Netzwerk beginnt, das zweite ständig zu täuschen.
Interessant ist, dass die Erstellung von Fotos von nicht existierenden Personen ein Nebenprodukt war: Das Hauptziel war es, die KI darauf zu trainieren, gefälschte Gesichter und Gesichter im Allgemeinen zu erkennen. Das Unternehmen benötigte dies, um die Leistung seiner Grafikkarten zu verbessern, indem es automatisch Gesichter erkennt und andere Rendering-Algorithmen darauf anwendet.
Es ist fast unmöglich, ein Bild einer gefälschten Person zu erkennen. Die KI ist so weit entwickelt, dass 90% der Fälschungen von einem normalen Menschen und 50% von einem erfahrenen Fotografen nicht erkannt werden. Es gibt keine Dienste für die Erkennung. Gelegentlich macht ein neuronales Netzwerk Fehler, weshalb Artefakte auftauchen: ein falsch gebogenes Muster, eine seltsame Haarfarbe und so weiter.
Das Einzige, was Sie tun müssen, ist, genauer hinzusehen: Die visuellen Verarbeitungssysteme des Menschen sind viel stärker als die von Computern, so dass es möglich ist, Fälschungen durch Erkennung zu erkennen.
Jevin West und Carl Bergstrom haben eine Website mit dem Titel “Which Face Is Real“ (Welches Gesicht ist echt) erstellt, die den Menschen beibringen soll, potenziell falsche Porträts analytischer zu betrachten. Bevor man eine Person auf einem Foto als existent einstuft, müssen mehrere Dinge berücksichtigt werden. Eines der häufigsten sind Symmetrieprobleme, insbesondere Brillen und Ohrringe.
Andererseits haben Facebook-Forscher im letzten Sommer erklärt, dass sie eine künstliche Intelligenz entwickelt haben, die “Deepfakes” identifizieren und ihre Herkunft mit Hilfe von Reverse Engineering zurückverfolgen kann.
DEEPFAKE NUTZUNG & RISIKEN
Das Problem der Deepfakes ist ein wichtiges und schwieriges Thema. Wie viele andere Arten von schädlichen Inhalten ist es von Natur aus kontraproduktiv und wird sich weiter entwickeln, und keine einzelne Organisation kann diese Herausforderungen alleine lösen. Die Gefahr, der wir durch die Verbreitung von “KI”-generierten Deepfakes ausgesetzt sind, reicht von der Verbreitung von Fehlinformationen über das Schüren von Missverständnissen, Angst oder Abscheu bis hin zur Schaffung falscher Darstellungen von Menschen.
In seinem Bericht, The AI Governance Journey: Development and Opportunities, sagt das Forum, dass KI entscheidend dazu beigetragen hat, Bereiche wie Innovation, ökologische Nachhaltigkeit und den Kampf gegen COVID-19 voranzubringen. Aber die Technologie “fordert uns auch mit neuen und komplexen ethischen Fragen heraus” und “überholt unsere Fähigkeit, sie zu steuern”.
Der Bericht befasst sich mit einer Reihe von Praktiken, Werkzeugen und Systemen zur Entwicklung und Nutzung von KI.
Dazu gehören Kennzeichnungs- und Zertifizierungssysteme, die externe Prüfung von Algorithmen zur Risikominderung, die Regulierung von KI-Anwendungen und eine stärkere Zusammenarbeit zwischen Industrie, Regierung, Wissenschaft und Zivilgesellschaft zur Entwicklung von KI-Governance-Rahmenwerken.
Wir geben unser Bestmögliches, Ihnen die neuesten Techniken und Werkzeuge zur Faktenüberprüfung zur Verfügung zu stellen. Spenden Sie jedes Mal, wenn Sie Desinformationen lesen, und das Geld wird für die Bezahlung einer Anzeige zur Überprüfung von Fakten verwendet!
Make a one-time donation
Your contribution is appreciated.
Donate
Make a monthly donation
Your contribution is appreciated.
Donate monthly
Make a yearly donation
Your contribution is appreciated.
Donate yearly