Ljudje težko prepoznajo medijsko-nove rezultate AI iz raziskav AI
Ljudje težko prepoznajo medijsko-nove rezultate AI iz raziskav AI
Ljudje težko vidijo medije, ki jih ustvari AI
Slike, besedila in zvočne datoteke, ki jih ustvarjajo Ki-ki-ki-ki-tako prepričljive, so tako prepričljive, da jih ljudje ne morejo več razlikovati od umetne vsebine. To je rezultat spletne ankete z približno 3000 udeleženci iz Nemčije, Kitajske in ZDA. Študijo sta izdelala CISPA-FACULTETY dr. Lea Schönherr in prof. Dr. Thorsten Holz sta izvedla in predstavila na 45. simpoziju IEEE o varnosti in zasebnosti v San Franciscu. Študija je bila izvedena v sodelovanju z univerzo Ruhr Bochum, Leibniz University of Hanover in TU Berlin.
Hiter razvoj umetne inteligence v zadnjih letih omogoča množice, besedila in zvočne datoteke z le nekaj kliki. Vendar ta razvoj nosi tveganja, zlasti glede političnega mnenja. S prihajajočimi pomembnimi volitvami v letošnjem letu, kot so parlamentarne volitve v EU ali predsedniške volitve v ZDA, obstaja tveganje, da bodo mediji, ki jih ustvarijo AI, uporabljeni za politično manipulacijo. To je velika nevarnost za demokracijo.
Rezultati študije so neverjetni: ljudje težko razlikujejo resnične medije od medijev, ki jih ustvari AI. To velja za vse vrste medijev, kot so besedila, zvočne in slikovne datoteke. Presenetljivo je, da obstaja le nekaj dejavnikov, ki lahko razložijo, ali so ljudje boljši pri prepoznavanju medijev, ki jih ustvari AI. Med različnimi starostnimi skupinami, izobraževalnimi ozadji, političnimi stališči ali medijsko pismenostjo skoraj ni pomembnih razlik.
Za študijo je bila izvedena kvantitativna spletna raziskava v Nemčiji, na Kitajskem in v ZDA. Udeleženci so bili po naključju dodeljeni eni od treh medijskih kategorij (besedilo, slika ali zvok) in so videli medije, ustvarjene z resničnimi in AI. Poleg tega so bili zbrani socialno-biografski podatki o medijih in drugih dejavnikih, ki jih ustvari AI. V oceno je bilo vključenih 2.609 podatkovnih zapisov.
Študija ponuja pomemben vpogled v raziskave kibernetske varnosti. Obstaja tveganje, da se za napade socialnega inženiringa uporabljajo AI, ustvarjena besedila in zvočne datoteke. Razvoj obrambnih mehanizmov za takšne scenarije napada je pomembna naloga za prihodnost. Poleg tega moramo bolje razumeti, kako lahko ljudje sploh razlikujejo AI ustvarjene medije. Načrtovana laboratorijska študija naj bi udeležence prosila, da vidijo, ali prepoznajo, ali se nekaj ustvari ali ne. Poleg tega je treba razviti tehnične postopke za samodejno preverjanje dejstev.
Celotno znanstveno publikacijo študije si lahko ogledate pod določeno povezavo.
Tabela: Pregled rezultatov študije
| Medijska umetnost | Število resnično razvrščenih | Število razvrščenih ki-generiranih |
| ———– | ———————- | --—————————— |
| Besedilo | 65% | 35% |
| Slika | 52% | 48% |
| Zvok | 60% | 40% |
Študija kaže, da je večina udeležencev, ki so AI razvrstili kot umetno, ne glede na vrsto medija.
Rezultati te študije zagotavljajo dragoceno znanje o dojemanju in prepoznavanju medijev, ki jih ustvari AI, in predstavljajo pomembna izhodišča za nadaljnje raziskave na tem področju. Še naprej je treba videti, kako se bo razvoj umetne inteligence razvijal v prihodnosti in kakšne posledice bo to imelo za družbo.
Kommentare (0)