Ludzie z trudem rozpoznają wygenerowane przez AI wyniki mediów z AI Research

Ludzie z trudem rozpoznają wygenerowane przez AI wyniki mediów z AI Research

Ludzie nie mogą zobaczyć mediów generowanych przez AI

Zdjęcia generowane przez Ki, teksty i pliki audio są tak przekonujące, że ludzie nie mogą już odróżniać ich od treści stworzonych przez człowieka. Jest to wynik ankiety online z około 3000 uczestników z Niemiec, Chin i USA. Badanie przeprowadzili CispA-Faculty Dr Lea Schönherr i prof. Dr Thorsten Holz przeprowadzili i zaprezentowali 45. Sympozjum IEEE na temat bezpieczeństwa i prywatności w San Francisco. Badanie przeprowadzono we współpracy z Ruhr University Bochum, Leibniz University of Hanover i Tu Berlin.

Szybki rozwój sztucznej inteligencji w ostatnich latach umożliwia masę, teksty i pliki audio za pomocą kilku kliknięć. Jednak rozwój ten wiąże się z ryzykiem, szczególnie w odniesieniu do tworzenia opinii politycznej. Wraz z nadchodzącymi ważnymi wyborami w tym roku, takimi jak wybory parlamentarne UE lub wybory prezydenckie w USA, istnieje ryzyko, że media wygenerowane przez AI zostaną wykorzystane do manipulacji polityczną. To wielkie niebezpieczeństwo dla demokracji.

W rezultacie zautomatyzowane wykrywanie mediów generowanych przez AI jest ważnym wyzwaniem badawczym. Ponieważ media tworzone za pomocą nowych metod generowanych przez AI mogą być coraz częściej rozpoznawane automatycznie, ostatecznie ważne jest, czy dana osoba jest w stanie to zrobić. Aby zbadać to pytanie, przeprowadzono badanie, aby dowiedzieć się, czy ludzie są w stanie zidentyfikować media generowane przez AI.

Wyniki badania są niesamowite: ludziom trudno jest odróżnić prawdziwe media od mediów generowanych przez AI. Dotyczy to wszystkich rodzajów mediów, takich jak teksty, pliki audio i obrazów. Co zaskakujące, istnieje tylko kilka czynników, które mogą wyjaśnić, czy ludzie są lepsi w rozpoznawaniu mediów generowanych przez AI. Nie ma prawie żadnych istotnych różnic między różnymi grupami wiekowymi, pochodzeniem edukacyjnym, postawami politycznymi lub umiejętnościami związanymi z mediami.

W badaniu przeprowadzono ilościową ankietę online w Niemczech, Chinach i USA. Uczestnicy zostali przypadkowo przypisani do jednej z trzech kategorii mediów (tekst, obraz lub audio) i widzieli media zarówno realne, jak i generowane przez AI. Ponadto zebrano dane społeczno-biograficzne dotyczące mediów generowanych przez AI i innych czynników. W ocenie uwzględniono w sumie 2609 rekordów danych.

Badanie zapewnia ważne informacje na temat badań nad bezpieczeństwem cybernetycznym. Istnieje ryzyko, że teksty generowane przez AI i pliki audio są używane do ataków inżynierii społecznej. Opracowanie mechanizmów obronnych dla takich scenariuszy ataku jest ważnym zadaniem na przyszłość. Ponadto musimy lepiej zrozumieć, w jaki sposób ludzie mogą w ogóle odróżnić media generowane przez AI. Planowane badanie laboratoryjne ma poprosić uczestników o sprawdzenie, czy uznają, czy coś jest wygenerowane, czy nie. Ponadto należy opracować procesy techniczne automatycznego sprawdzania faktów.

Pełna publikacja naukowa badania można obejrzeć pod określonym linkiem.

Tabela: Przegląd wyników badania

| Sztuka medialna | Liczba naprawdę sklasyfikowanych | Liczba sklasyfikowanych KI |
|. ———— | ————————- | --—————————— |
|. Tekst | 65% | 35% |
|. Zdjęcie | 52% | 48% |
|. Audio | 60% | 40% |

Badanie pokazuje, że większość uczestników sklasyfikowała media wygenerowane przez AI jako stworzone przez człowieka, niezależnie od rodzaju medium.

Wyniki tego badania zapewniają cenną wiedzę na temat percepcji i rozpoznawania mediów generowanych przez AI i stanowią ważne punkty początkowe dla dalszych badań w tym obszarze. Okaże się, w jaki sposób rozwój sztucznej inteligencji będzie się rozwijać w przyszłości i jakie konsekwencje będzie miało to dla społeczeństwa.



Źródło: Cispa-helmholtz Center dla bezpieczeństwa informacji/OTS

Kommentare (0)