Cilvēki diez vai var atpazīt AI ģenerētos plašsaziņas līdzekļu jaunos rezultātus no AI pētījumiem
Cilvēki diez vai var atpazīt AI ģenerētos plašsaziņas līdzekļu jaunos rezultātus no AI pētījumiem
cilvēki diez vai var redzēt AI ģenerētus multivides
Ki ģenerētie attēli, teksti un audio faili ir tik pārliecinoši, ka cilvēki tos vairs nevar atšķirt no cilvēka radītā satura. Tas ir tiešsaistes aptaujas rezultāts, kurā ir aptuveni 3000 dalībnieku no Vācijas, Ķīnas un ASV. Pētījumu veica Cispa-Faculty Dr. Lea Schönherr un prof. Dr Thorsten Holz, kas veica un iepazīstināja ar 45. IEEE simpoziju par drošību un privātumu Sanfrancisko. Pētījums tika veikts sadarbībā ar Ruhras universitāti Bochum, Hanoveres Leibnizas universitāti un Tu Berlīni.
Straujā mākslīgā intelekta attīstība pēdējos gados ļauj masām, tekstiem un audio failiem tikai ar dažiem klikšķiem. Tomēr šī attīstība rada riskus, jo īpaši attiecībā uz politisko viedokli. Ar gaidāmajām nozīmīgajām vēlēšanām šogad, piemēram, ES parlamenta vēlēšanas vai prezidenta vēlēšanas ASV, pastāv risks, ka AI ģenerētie plašsaziņas līdzekļi tiks izmantoti politiskām manipulācijām. Tas ir lielas briesmas demokrātijai.
Pētījuma rezultāti ir pārsteidzoši: cilvēkiem ir grūti atšķirt reālos plašsaziņas līdzekļus no AI ģenerētiem plašsaziņas līdzekļiem. Tas attiecas uz visiem multivides veidiem, piemēram, tekstiem, audio un attēlu failiem. Pārsteidzoši, ka ir tikai daži faktori, kas var izskaidrot, vai cilvēki labāk atpazīst AI ģenerētos plašsaziņas līdzekļus. Diez vai ir būtiskas atšķirības starp dažādām vecuma grupām, izglītības pieredzi, politisko attieksmi vai plašsaziņas līdzekļu lasītprasmi.
Pētījumam tika veikta kvantitatīva tiešsaistes aptauja Vācijā, Ķīnā un ASV. Dalībnieki nejauši tika norīkoti vienā no trim plašsaziņas līdzekļu kategorijām (teksts, attēls vai audio) un redzēja gan reālus, gan AI ģenerētos plašsaziņas līdzekļus. Turklāt tika apkopoti sociāli biogrāfiski dati par AI radītajiem plašsaziņas līdzekļiem un citiem faktoriem. Novērtējumā tika iekļauti 2 609 datu ieraksti.
Pētījums sniedz svarīgu ieskatu kiberdrošības pētījumos. Pastāv risks, ka sociālās inženierijas uzbrukumiem tiek izmantoti AI ģenerēti teksti un audio faili. Aizsardzības mehānismu izstrāde šādiem uzbrukuma scenārijiem ir svarīgs nākotnes uzdevums. Turklāt mums ir labāk jāsaprot, kā cilvēki vispār var atšķirt AI radītos plašsaziņas līdzekļus. Plānots laboratorijas pētījums ir paredzēts, lai lūgtu dalībniekus noskaidrot, vai viņi atzīst, vai kaut kas tiek ģenerēts vai nē. Turklāt jāizstrādā tehniskie procesi automatizētai faktu pārbaudei.
Pilnīgu pētījuma zinātnisko publikāciju var apskatīt saskaņā ar norādīto saiti.
Tabula: pētījuma rezultātu pārskats
| Mediju māksla | Patiešām klasificētu skaits | KI ģenerētu klasificētu skaits |
| ———– | ———————- | --———————— |
| Teksts | 65% | 35% |
| Attēls | 52% | 48% |
| Audio | 60% | 40% |
Pētījums parāda, ka lielākā daļa dalībnieku klasificēja AI radīja plašsaziņas līdzekļus kā cilvēku veidotus neatkarīgi no vidēja veida.
Šī pētījuma rezultāti sniedz vērtīgas zināšanas par AI ģenerētu plašsaziņas līdzekļu uztveri un atpazīšanu un ir svarīgi sākumpunkti turpmākiem pētījumiem šajā jomā. Atliek redzēt, kā nākotnē attīstīsies mākslīgā intelekta attīstība un kādas sekas tam radīs sabiedrībai.
Kommentare (0)