Folk kan næppe genkende AI-genererede medie-nye resultater fra AI-forskning
Folk kan næppe genkende AI-genererede medie-nye resultater fra AI-forskning
Folk kan næppe se AI -genererede medier
Ki-genererede billeder, tekster og lydfiler er så overbevisende, at folk ikke længere kan skelne dem fra menneskeskabte indhold. Dette er resultatet af en online undersøgelse med omkring 3.000 deltagere fra Tyskland, Kina og USA. Undersøgelsen blev foretaget af Cispa-Fakultet Dr. Lea Schönherr og professor Dr. Thorsten Holz gennemført og præsenteret på det 45. IEEE-symposium om sikkerhed og privatliv i San Francisco. Undersøgelsen blev udført i samarbejde med Ruhr University Bochum, Leibniz University of Hanover og Tu Berlin.
Den hurtige udvikling af kunstig intelligens i de senere år muliggør masser, tekster og lydfiler med kun et par klik. Imidlertid bærer denne udvikling risici, især med hensyn til politisk mening -at skabe. Med det kommende vigtige valg i år, såsom EU -parlamentsvalget eller præsidentvalget i USA, er der en risiko for, at AI -genererede medier vil blive brugt til politisk manipulation. Dette er en stor fare for demokrati.
Resultaterne af undersøgelsen er fantastiske: Folk har svært ved at skelne virkelige medier fra AI -genererede medier. Dette gælder for alle typer medier, såsom tekster, lyd- og billedfiler. Overraskende er der kun få faktorer, der kan forklare, om folk er bedre til at genkende AI -genererede medier. Der er næppe nogen signifikante forskelle mellem forskellige aldersgrupper, uddannelsesmæssige baggrunde, politiske holdninger eller mediekompetence.
En kvantitativ onlineundersøgelse i Tyskland, Kina og USA blev udført til undersøgelsen. Deltagerne blev ved et uheld tildelt en af de tre mediekategorier (tekst, billede eller lyd) og så både ægte og AI -genererede medier. Derudover blev socio-biografiske data indsamlet om AI-genererede medier og andre faktorer. I alt 2.609 dataregistreringer blev inkluderet i evalueringen.
Undersøgelsen giver vigtige indsigter til cybersikkerhedsforskning. Der er en risiko for, at AI -genererede tekster og lydfiler bruges til sociale tekniske angreb. Udvikling af forsvarsmekanismer til sådanne angrebsscenarier er en vigtig opgave for fremtiden. Derudover er vi nødt til bedre at forstå, hvordan folk overhovedet kan skelne AI -genererede medier. En planlagt laboratorieundersøgelse er beregnet til at bede deltagerne om at se, om de anerkender, om der genereres noget eller ej. Derudover skal tekniske processer til automatiseret faktakontrol udvikles.
Den komplette videnskabelige publikation af undersøgelsen kan ses under det angivne link.
Tabel: Oversigt over undersøgelsesresultaterne
| Mediekunst | Antal virkelig klassificeret | Antal Ki-genererede klassificerede |
| ———– | ——————- | --————————— |
| Tekst | 65% | 35% |
| Billede | 52% | 48% |
| Audio | 60% | 40% |
Undersøgelsen viser, at størstedelen af deltagerne klassificerede AI-genererede medier som menneskeskabte, uanset typen af medium.
Resultaterne af denne undersøgelse giver værdifuld viden om opfattelsen og anerkendelsen af AI -genererede medier og repræsenterer vigtige udgangspunkt for yderligere forskning på dette område. Det er tilbage at se, hvordan udviklingen af kunstig intelligens vil udvikle sig i fremtiden, og hvilke konsekvenser dette vil have for samfundet.
Kommentare (0)