Menschen können KI-generierte Medien kaum erkennen
KI-generierte Bilder, Texte und Audiodateien sind so überzeugend, dass Menschen diese nicht mehr von menschengemachten Inhalten unterscheiden können. Dies ist das Ergebnis einer Online-Befragung mit etwa 3.000 Teilnehmern aus Deutschland, China und den USA. Die Studie wurde von CISPA-Faculty Dr. Lea Schönherr und Prof. Dr. Thorsten Holz durchgeführt und auf dem 45. IEEE Symposium on Security and Privacy in San Francisco präsentiert. Die Studie wurde in Zusammenarbeit mit der Ruhr-Universität Bochum, der Leibniz Universität Hannover und der TU Berlin durchgeführt.
Die rapide Entwicklung der Künstlichen Intelligenz in den letzten Jahren ermöglicht es, mit nur wenigen Klicks massenhaft Bilder, Texte und Audiodateien zu generieren. Diese Entwicklung birgt jedoch Risiken, insbesondere im Hinblick auf politische Meinungsmache. Mit den bevorstehenden wichtigen Wahlen in diesem Jahr, wie den EU-Parlamentswahlen oder der Präsidentschaftswahl in den USA, besteht die Gefahr, dass KI-generierte Medien für politische Manipulationen verwendet werden. Dies stellt eine große Gefahr für die Demokratie dar.
Infolgedessen stellt die automatisierte Erkennung von KI-generierten Medien eine wichtige Forschungsherausforderung dar. Da Medien, die mit neuen KI-generierten Methoden erstellt werden, immer schwerer automatisch erkannt werden können, kommt es letztendlich darauf an, ob ein Mensch dazu in der Lage ist. Um diese Frage zu untersuchen, wurde die Studie durchgeführt, um herauszufinden, ob Menschen in der Lage sind, KI-generierte Medien zu identifizieren.
Die Ergebnisse der Studie sind erstaunlich: Menschen finden es bereits schwierig, echte von KI-generierten Medien zu unterscheiden. Dies gilt für alle Arten von Medien wie Texte, Audio- und Bilddateien. Überraschenderweise gibt es nur wenige Faktoren, die erklären können, ob Menschen besser im Erkennen von KI-generierten Medien sind oder nicht. Es gibt kaum signifikante Unterschiede zwischen verschiedenen Altersgruppen, Bildungshintergründen, politischen Einstellungen oder Medienkompetenz.
Für die Studie wurde eine quantitative Online-Befragung in Deutschland, China und den USA durchgeführt. Die Teilnehmer wurden zufällig einer der drei Medienkategorien (Text, Bild oder Audio) zugeordnet und sahen sowohl reale als auch KI-generierte Medien. Zusätzlich wurden sozio-biografische Daten, Wissen über KI-generierte Medien und andere Faktoren erhoben. Insgesamt wurden 2.609 Datensätze in die Auswertung einbezogen.
Die Studie liefert wichtige Erkenntnisse für die Cybersicherheitsforschung. Es besteht das Risiko, dass KI-generierte Texte und Audio-Dateien für Social Engineering-Angriffe genutzt werden. Abwehrmechanismen für solche Angriffsszenarien zu entwickeln, ist eine wichtige Aufgabe für die Zukunft. Darüber hinaus müssen wir besser verstehen, wie Menschen überhaupt noch KI-generierte Medien unterscheiden können. Eine geplante Laborstudie soll Teilnehmer dazu befragen, woran sie erkennen, ob etwas KI-generiert ist oder nicht. Außerdem sollen technische Verfahren zum automatisierten Fakt-Checking entwickelt werden.
Die vollständige wissenschaftliche Publikation der Studie kann unter dem angegebenen Link eingesehen werden.
Tabelle: Übersicht über die Studienergebnisse
| Medienart | Anzahl echt klassifiziert | Anzahl KI-generiert klassifiziert |
|———–|————————–|———————————|
| Text | 65% | 35% |
| Bild | 52% | 48% |
| Audio | 60% | 40% |
Die Studie zeigt, dass die Mehrheit der Teilnehmer KI-generierte Medien als menschengemacht klassifiziert, unabhängig von der Art des Mediums.
Die Ergebnisse dieser Studie liefern wertvolle Erkenntnisse über die Wahrnehmung und Erkennung von KI-generierten Medien und stellen wichtige Ausgangspunkte für weitere Forschung auf diesem Gebiet dar. Es bleibt abzuwarten, wie sich die Entwicklung der Künstlichen Intelligenz in Zukunft weiterentwickeln wird und welche Konsequenzen dies für die Gesellschaft haben wird.
Quelle: CISPA – Helmholtz-Zentrum für Informationssicherheit / ots