Människor kan knappast känna igen AI-genererade media-nya resultat från AI-forskning

Människor kan knappast känna igen AI-genererade media-nya resultat från AI-forskning

Människor kan knappast se AI -genererade media

ki-genererade bilder, texter och ljudfiler är så övertygande att människor inte längre kan skilja dem från konstgjorda innehåll. Detta är resultatet av en onlineundersökning med cirka 3 000 deltagare från Tyskland, Kina och USA. Studien gjordes av Cispa-fakulteten Dr. Lea Schönherr och prof. Dr. Thorsten Holz genomfördes och presenterades på det 45: e IEEE-symposiet om säkerhet och integritet i San Francisco. Studien genomfördes i samarbete med Ruhr University Bochum, Leibniz University of Hanover och Tu Berlin.

Den snabba utvecklingen av konstgjord intelligens under de senaste åren möjliggör massor, texter och ljudfiler med bara några klick. Denna utveckling har emellertid risker, särskilt när det gäller politisk åsikt. Med det kommande viktiga valet i år, till exempel EU: s parlamentsval eller presidentvalet i USA, finns det en risk att AI genererade media kommer att användas för politisk manipulation. Detta är en stor fara för demokrati.

Som ett resultat är den automatiska detekteringen av AI-genererade media en viktig forskningsutmaning. Eftersom media som skapas med nya AI -genererade metoder kan alltmer kännas igen automatiskt, är det i slutändan viktigt om en person kan göra det. För att undersöka denna fråga genomfördes studien för att ta reda på om människor kan identifiera AI -genererade media.

Resultaten av studien är fantastiska: människor har svårt att skilja riktiga medier från AI -genererade media. Detta gäller alla typer av media som texter, ljud- och bildfiler. Överraskande finns det bara några få faktorer som kan förklara om människor är bättre i att erkänna AI -genererade media. Det finns knappast några signifikanta skillnader mellan olika åldersgrupper, utbildningsbakgrund, politiska attityder eller mediekunskap.

En kvantitativ onlineundersökning i Tyskland, Kina och USA genomfördes för studien. Deltagarna tilldelades av misstag till en av de tre mediekategorierna (text, bild eller ljud) och såg både verkliga och AI genererade media. Dessutom samlades sociobiografiska data om AI-genererade media och andra faktorer. Totalt inkluderades 2 609 dataposter i utvärderingen.

Studien ger viktiga insikter för cybersäkerhetsforskning. Det finns en risk att AI genererade texter och ljudfiler används för attacker för socialteknik. Att utveckla försvarsmekanismer för sådana attackscenarier är en viktig uppgift för framtiden. Dessutom måste vi bättre förstå hur människor alls kan skilja AI -genererade medier. En planerad laboratoriestudie är avsedd att be deltagarna se om de inser om något genereras eller inte. Dessutom ska tekniska processer för automatiserad faktakontroll utvecklas.

Den fullständiga vetenskapliga publiceringen av studien kan ses under den angivna länken.

Tabell: Översikt över studieresultaten

| Mediekonst | Antal verkligen klassificerade | Antal ki-genererade klassificerade |
| ———– | ———————- | --—————————— |
| Text | 65% | 35% |
| Bild | 52% | 48% |
| Ljud | 60% | 40% |

Studien visar att majoriteten av deltagarna klassificerade AI-genererade media som konstgjorda, oavsett typ av medium.

Resultaten av denna studie ger värdefull kunskap om uppfattningen och erkännandet av AI -genererade media och representerar viktiga utgångspunkter för ytterligare forskning inom detta område. Det återstår att se hur utvecklingen av konstgjord intelligens kommer att utvecklas i framtiden och vilka konsekvenser detta kommer att få för samhället.



Källa: cispa-helmholtz center för informationssäkerhet/OTS

Kommentare (0)