Le persone difficilmente possono riconoscere i risultati dei media generati dall'intelligenza artificiale dalla ricerca AI
Le persone difficilmente possono riconoscere i risultati dei media generati dall'intelligenza artificiale dalla ricerca AI
Le persone difficilmente possono vedere i media generati dall'intelligenza artificiale
Immagini, testi e file audio generati da ki sono così convincenti che le persone non possono più distinguerle dai contenuti artificiali. Questo è il risultato di un sondaggio online con circa 3.000 partecipanti provenienti da Germania, Cina e Stati Uniti. Lo studio è stato condotto dal dott. Lea Schönherr e il prof. Thorsten Holz, la facoltà della CISPA, hanno condotto e presentato al 45 ° Simposio IEEE sulla sicurezza e sulla privacy a San Francisco. Lo studio è stato condotto in collaborazione con la Ruhr University Bochum, l'Università di Hannover di Leibniz e la TU Berlin.
Il rapido sviluppo dell'intelligenza artificiale negli ultimi anni consente masse, testi e file audio con pochi clic. Tuttavia, questo sviluppo comporta rischi, in particolare per quanto riguarda l'opinione politica. Con le prossime importanti elezioni di quest'anno, come le elezioni parlamentari dell'UE o le elezioni presidenziali negli Stati Uniti, esiste il rischio che i media generati dall'intelligenza artificiali vengano utilizzati per la manipolazione politica. Questo è un grande pericolo per la democrazia.
I risultati dello studio sono sorprendenti: le persone hanno difficoltà a distinguere i media reali dai media generati dall'IA. Questo vale per tutti i tipi di media come testi, file audio e immagini. Sorprendentemente, ci sono solo alcuni fattori che possono spiegare se le persone sono migliori nel riconoscere i media generati dall'intelligenza artificiale. Non ci sono differenze significative tra diverse fasce di età, background educativi, atteggiamenti politici o alfabetizzazione mediatica.
Un sondaggio online quantitativo in Germania, Cina e Stati Uniti è stato condotto per lo studio. I partecipanti sono stati accidentalmente assegnati a una delle tre categorie di media (testo, immagine o audio) e hanno visto supporti generati sia reali che generati dall'intelligenza artificiale. Inoltre, sono stati raccolti dati socio-biografici su media generati dall'intelligenza artificiale e altri fattori. Nel valutazione sono stati inclusi un totale di 2.609 record di dati.
Lo studio fornisce importanti approfondimenti per la ricerca sulla sicurezza informatica. Esiste il rischio che i testi e i file audio generati dall'intelligenza artificiale vengano utilizzati per gli attacchi di ingegneria sociale. Lo sviluppo di meccanismi di difesa per tali scenari di attacco è un compito importante per il futuro. Inoltre, dobbiamo capire meglio come le persone possono distinguere i media generati dall'intelligenza artificiale. Uno studio di laboratorio pianificato ha lo scopo di chiedere ai partecipanti di vedere se riconoscono se qualcosa viene generato o meno. Inoltre, devono essere sviluppati processi tecnici per il controllo dei fatti automatizzati.
La pubblicazione scientifica completa dello studio può essere visualizzata sotto il link specificato.
Tabella: panoramica dei risultati dello studio
| Arte mediatica | Numero di veramente classificato | Numero di classificato di ki-generato |
| ———– | ————————- | --—————————— |
| Testo | 65% | 35% |
| Immagine | 52% | 48% |
| Audio | 60% | 40% |
Lo studio mostra che la maggior parte dei partecipanti ha classificato i media generati come arti, indipendentemente dal tipo di mezzo.
I risultati di questo studio forniscono preziose conoscenze sulla percezione e il riconoscimento dei media generati dall'intelligenza artificiale e rappresentano importanti punti di partenza per ulteriori ricerche in questo settore. Resta da vedere come si svilupperà lo sviluppo dell'intelligenza artificiale in futuro e quali conseguenze avranno per la società.
Kommentare (0)