Oamenii pot recunoaște cu greu rezultatele generate media generate de AI din cercetarea AI

Oamenii pot recunoaște cu greu rezultatele generate media generate de AI din cercetarea AI

oamenii cu greu pot vedea media generată de AI

Imaginile, textele și fișierele audio generate de Ki sunt atât de convingătoare încât oamenii nu le mai pot distinge de conținutul creat de om. Acesta este rezultatul unui sondaj online cu aproximativ 3.000 de participanți din Germania, China și SUA. Studiul a fost realizat de Cispa-Fculty Dr. Lea Schönherr și prof. Dr. Thorsten Holz au efectuat și prezentat la cel de-al 45-lea simpozion IEEE privind securitatea și confidențialitatea din San Francisco. Studiul a fost realizat în cooperare cu Universitatea Ruhr Bochum, Universitatea Leibniz din Hanovra și Tu Berlin.

Dezvoltarea rapidă a inteligenței artificiale în ultimii ani permite mase, texte și fișiere audio cu doar câteva clicuri. Cu toate acestea, această dezvoltare prezintă riscuri, în special în ceea ce privește confecționarea opiniei politice. Odată cu viitoarele alegeri importante din acest an, cum ar fi alegerile parlamentare ale UE sau alegerile prezidențiale din SUA, există riscul ca mass -media generate de AI să fie utilizate pentru manipularea politică. Acesta este un mare pericol pentru democrație.

Drept urmare, detectarea automată a mass-media generate de AI este o provocare importantă de cercetare. Deoarece media care sunt create cu noi metode generate de AI pot fi din ce în ce mai recunoscute automat, este în cele din urmă important dacă o persoană este capabilă să facă acest lucru. Pentru a examina această întrebare, studiul a fost realizat pentru a afla dacă oamenii sunt capabili să identifice media generată de AI.

Rezultatele studiului sunt uimitoare: oamenilor le este greu să distingă media reală de media generată de AI. Acest lucru se aplică tuturor tipurilor de suporturi, cum ar fi texte, fișiere audio și imagine. Surprinzător, există doar câțiva factori care pot explica dacă oamenii sunt mai buni în recunoașterea mass -media generate de AI. Nu există nicio diferență semnificativă între diferite grupuri de vârstă, medii educaționale, atitudini politice sau alfabetizare media.

Un sondaj online cantitativ în Germania, China și SUA a fost realizat pentru studiu. Participanții au fost repartizați din greșeală la una dintre cele trei categorii media (text, imagine sau audio) și au văzut atât media reală, cât și AI. În plus, datele socio-biografice au fost colectate despre media generată de AI și alți factori. În evaluare au fost incluse în total 2.609 înregistrări de date.

Studiul oferă informații importante pentru cercetarea securității cibernetice. Există riscul ca textele generate de AI și fișierele audio să fie utilizate pentru atacuri de inginerie socială. Dezvoltarea mecanismelor de apărare pentru astfel de scenarii de atac este o sarcină importantă pentru viitor. În plus, trebuie să înțelegem mai bine cum oamenii pot distinge deloc media generată de AI. Un studiu planificat de laborator este destinat să ceară participanților să vadă dacă recunosc dacă este generat ceva sau nu. În plus, trebuie dezvoltate procese tehnice pentru verificarea automată a faptelor.

Publicarea științifică completă a studiului poate fi vizualizată sub legătura specificată.

Tabel: Prezentare generală a rezultatelor studiului

| Media Art | Numărul de cu adevărat clasificat | Numărul clasificatului generat de Ki |
| ————– | ————————— | --—————————— |
| Text | 65% | 35% |
| Imagine | 52% | 48% |
| Audio | 60% | 40% |

Studiul arată că majoritatea participanților au clasificat AI-ul generat de media ca fiind creat de om, indiferent de tipul de mediu.

Rezultatele acestui studiu oferă cunoștințe valoroase despre percepția și recunoașterea mass -media generate de AI și reprezintă puncte de plecare importante pentru cercetări ulterioare în acest domeniu. Rămâne de văzut cum se va dezvolta dezvoltarea inteligenței artificiale în viitor și ce consecințe va avea acest lucru pentru societate.



Sursa: CispA-Helmholtz Center for Information Security/OTS

Kommentare (0)