Хората трудно могат да разпознаят генерираните от AI медийно-нови резултати от AI Research
Хората трудно могат да разпознаят генерираните от AI медийно-нови резултати от AI Research
Хората трудно могат да видят генерирана от AI медия
Ki генерирани снимки, текстове и аудио файлове са толкова убедителни, че хората вече не могат да ги различават от създадено от човека съдържание. Това е резултат от онлайн проучване с около 3000 участници от Германия, Китай и САЩ. Проучването е направено от CISPA-Faculty д-р Леа Шьонхер и проф. Д-р Торстен Холц, извършени и представени на 45-ия симпозиум на IEEE за сигурност и поверителност в Сан Франциско. Проучването е проведено в сътрудничество с университета Ruhr Bochum, Leibniz University of Hanover и Tu Berlin.
Бързото развитие на изкуствения интелект през последните години дава възможност за маси, текстове и аудио файлове само с няколко кликвания. Това развитие обаче носи рискове, особено по отношение на политическото мнение. С предстоящите важни избори през тази година, като парламентарните избори в ЕС или президентските избори в САЩ, съществува риск да бъде използван за политическа манипулация, генерирани от AI. Това е голяма опасност за демокрацията.
Резултатите от изследването са невероятни: хората трудно се разграничават реалните медии от генерираните от AI медии. Това се отнася за всички видове медии като текстове, аудио и файлове с изображения. Изненадващо, има само няколко фактора, които могат да обяснят дали хората са по -добри в разпознаването на генерирани от AI медия. Едва ли има значителни разлики между различни възрастови групи, образователни произход, политически нагласи или медийна грамотност.
Количествено онлайн проучване в Германия, Китай и САЩ беше проведено за изследването. Участниците бяха случайно назначени в една от трите медийни категории (текст, изображение или аудио) и видяха и реални, и генерирани от AI медии. В допълнение, социално-биографичните данни бяха събрани за генерирани от AI медии и други фактори. В оценката бяха включени общо 2 609 записи на данни.
Проучването предоставя важна представа за изследванията за киберсигурност. Съществува риск, че AI генерираните текстове и аудио файлове се използват за атаки на социално инженерство. Разработването на защитни механизми за подобни сценарии на атака е важна задача за бъдещето. Освен това трябва да разберем по -добре как хората изобщо могат да различават генерираните от AI медии. Планирано лабораторно проучване има за цел да помоли участниците да видят дали да разпознаят дали нещо се генерира или не. В допълнение, трябва да се разработят технически процеси за автоматизирана проверка на фактите.
Пълното научно публикуване на изследването може да бъде разгледано под посочената връзка.
Таблица: Преглед на резултатите от изследването
| Медийно изкуство | Брой наистина класифицирани | Брой класифицирани с ки
| ————– | ———————- | ——————————— |
| Текст | 65% | 35% |
| Изображение | 52% | 48% |
| Аудио | 60% | 40% |
Проучването показва, че по-голямата част от участниците класифицират генерираните от ИИ медии като създадени от човека, независимо от вида на медията.
Резултатите от това проучване предоставят ценни знания за възприемането и признаването на генерирани от AI медии и представляват важни отправни точки за по -нататъшни изследвания в тази област. Остава да видим как ще се развие развитието на изкуствения интелект в бъдеще и какви последствия ще има това за обществото.
Източник: cispa-helmholtz център за информационна сигурност/ots
Kommentare (0)