Ludzie z trudem rozpoznają wygenerowane przez AI wyniki mediów z AI Research
Ludzie z trudem rozpoznają wygenerowane przez AI wyniki mediów z AI Research
Ludzie nie mogą zobaczyć mediów generowanych przez AI
Zdjęcia generowane przez Ki, teksty i pliki audio są tak przekonujące, że ludzie nie mogą już odróżniać ich od treści stworzonych przez człowieka. Jest to wynik ankiety online z około 3000 uczestników z Niemiec, Chin i USA. Badanie przeprowadzili CispA-Faculty Dr Lea Schönherr i prof. Dr Thorsten Holz przeprowadzili i zaprezentowali 45. Sympozjum IEEE na temat bezpieczeństwa i prywatności w San Francisco. Badanie przeprowadzono we współpracy z Ruhr University Bochum, Leibniz University of Hanover i Tu Berlin.
Szybki rozwój sztucznej inteligencji w ostatnich latach umożliwia masę, teksty i pliki audio za pomocą kilku kliknięć. Jednak rozwój ten wiąże się z ryzykiem, szczególnie w odniesieniu do tworzenia opinii politycznej. Wraz z nadchodzącymi ważnymi wyborami w tym roku, takimi jak wybory parlamentarne UE lub wybory prezydenckie w USA, istnieje ryzyko, że media wygenerowane przez AI zostaną wykorzystane do manipulacji polityczną. To wielkie niebezpieczeństwo dla demokracji.
Wyniki badania są niesamowite: ludziom trudno jest odróżnić prawdziwe media od mediów generowanych przez AI. Dotyczy to wszystkich rodzajów mediów, takich jak teksty, pliki audio i obrazów. Co zaskakujące, istnieje tylko kilka czynników, które mogą wyjaśnić, czy ludzie są lepsi w rozpoznawaniu mediów generowanych przez AI. Nie ma prawie żadnych istotnych różnic między różnymi grupami wiekowymi, pochodzeniem edukacyjnym, postawami politycznymi lub umiejętnościami związanymi z mediami.
W badaniu przeprowadzono ilościową ankietę online w Niemczech, Chinach i USA. Uczestnicy zostali przypadkowo przypisani do jednej z trzech kategorii mediów (tekst, obraz lub audio) i widzieli media zarówno realne, jak i generowane przez AI. Ponadto zebrano dane społeczno-biograficzne dotyczące mediów generowanych przez AI i innych czynników. W ocenie uwzględniono w sumie 2609 rekordów danych.Badanie zapewnia ważne informacje na temat badań nad bezpieczeństwem cybernetycznym. Istnieje ryzyko, że teksty generowane przez AI i pliki audio są używane do ataków inżynierii społecznej. Opracowanie mechanizmów obronnych dla takich scenariuszy ataku jest ważnym zadaniem na przyszłość. Ponadto musimy lepiej zrozumieć, w jaki sposób ludzie mogą w ogóle odróżnić media generowane przez AI. Planowane badanie laboratoryjne ma poprosić uczestników o sprawdzenie, czy uznają, czy coś jest wygenerowane, czy nie. Ponadto należy opracować procesy techniczne automatycznego sprawdzania faktów.
Pełna publikacja naukowa badania można obejrzeć pod określonym linkiem.
Tabela: Przegląd wyników badania
| Sztuka medialna | Liczba naprawdę sklasyfikowanych | Liczba sklasyfikowanych KI |
|. ———— | ————————- | --—————————— |
|. Tekst | 65% | 35% |
|. Zdjęcie | 52% | 48% |
|. Audio | 60% | 40% |
Badanie pokazuje, że większość uczestników sklasyfikowała media wygenerowane przez AI jako stworzone przez człowieka, niezależnie od rodzaju medium.
Wyniki tego badania zapewniają cenną wiedzę na temat percepcji i rozpoznawania mediów generowanych przez AI i stanowią ważne punkty początkowe dla dalszych badań w tym obszarze. Okaże się, w jaki sposób rozwój sztucznej inteligencji będzie się rozwijać w przyszłości i jakie konsekwencje będzie miało to dla społeczeństwa.
Źródło: Cispa-helmholtz Center dla bezpieczeństwa informacji/OTS
Kommentare (0)