Žmonės vargu ar gali atpažinti AI generuotus naujus AI tyrimų rezultatus
Žmonės vargu ar gali atpažinti AI generuotus naujus AI tyrimų rezultatus
Vargu ar galima pamatyti AI sukurtą žiniasklaidą
Ki sukurtos nuotraukos, tekstai ir garso failai yra tokie įtikinami, kad žmonės nebegali jų atskirti nuo žmogaus sukurto turinio. Tai yra internetinės apklausos, kurioje dalyvavo maždaug 3000 dalyvių iš Vokietijos, Kinijos ir JAV, rezultatas. Tyrimą atliko „Cispa-Facultity Dr. Lea Schönherr“ ir prof. Dr. Thorstenas Holzas, kuris atliko ir pristatė 45-ąjį IEEE saugumo ir privatumo simpoziumą San Fransiske. Tyrimas buvo atliktas bendradarbiaujant su Ruhr universiteto Bochum, Leibnizo Hanoverio universitete ir „Tu Berlin“.
Greitas dirbtinio intelekto kūrimas pastaraisiais metais įgalina masės, tekstus ir garso failus vos keliais paspaudimais. Tačiau ši plėtra kelia riziką, ypač atsižvelgiant į politinę nuomonę. Artėjantys svarbūs šių metų rinkimai, tokie kaip ES parlamento rinkimai ar prezidento rinkimai JAV, yra rizika, kad AI sukelta žiniasklaida bus naudojama politinėms manipuliacijoms. Tai yra didelis pavojus demokratijai.
Tyrimo rezultatai yra nuostabūs: žmonėms sunku atskirti tikrąsias laikmenas nuo AI sukurtos žiniasklaidos. Tai taikoma visų tipų laikmenoms, tokioms kaip tekstai, garso ir vaizdo failai. Keista, bet yra tik keli veiksniai, kurie gali paaiškinti, ar žmonės geriau atpažįsta AI sukurtą žiniasklaidą. Vargu ar yra reikšmingų skirtumų tarp skirtingų amžiaus grupių, išsilavinimo, politinio požiūrio ar žiniasklaidos raštingumo.
Tyrimui buvo atlikta kiekybinė internetinė apklausa Vokietijoje, Kinijoje ir JAV. Dalyviai buvo netyčia priskirta vienai iš trijų laikmenų kategorijų (tekstas, vaizdas ar garsas) ir pamatė ir „Real“, ir AI sukurtą laikmeną. Be to, buvo surinkti socialiniai biografiniai duomenys apie AI sukurtas terpes ir kitus veiksnius. Iš viso į vertinimą buvo įtraukti 2 609 duomenų įrašai.
Tyrimas suteikia svarbių įžvalgų kibernetinio saugumo tyrimams. Yra rizika, kad AI generuoti tekstai ir garso failai yra naudojami socialinėms inžinerijos atakoms. Tokių atakų scenarijų gynybos mechanizmų kūrimas yra svarbi ateities užduotis. Be to, turime geriau suprasti, kaip žmonės iš viso gali atskirti AI sukurtas laikmenas. Planuojamą laboratorijos tyrimą ketinama paprašyti dalyvių sužinoti, ar jie pripažįsta, ar kažkas sugeneruojamas, ar ne. Be to, turi būti sukurti techniniai automatinio faktų tikrinimo procesai.
Išsamų mokslinį tyrimo leidinį galima peržiūrėti pagal nurodytą nuorodą.
Lentelė: Tyrimo rezultatų apžvalga
| Žiniasklaidos menas | Tikrai klasifikuoto skaičius | Ki generuotų klasifikuotų Ki generuojamų |
| ———— | ———————— | ——————————— |
| Tekstas | 65% | 35% |
| Vaizdas | 52% | 48% |
| Garsas | 60% | 40% |
Tyrimas rodo, kad dauguma dalyvių klasifikavo AI kaip žmogaus sukurtą laikmeną, neatsižvelgiant į terpės tipą.
Šio tyrimo rezultatai suteikia vertingų žinių apie AI sukurtos žiniasklaidos suvokimą ir pripažinimą ir yra svarbūs atskaitos taškai tolesniems šios srities tyrimams. Belieka išsiaiškinti, kaip ateityje vystysis dirbtinio intelekto plėtra ir kokias pasekmes tai turės visuomenei.
Kommentare (0)