Οι άνθρωποι δύσκολα μπορούν να αναγνωρίσουν τα αποτελέσματα της AI που παράγονται από τα μέσα ενημέρωσης από την έρευνα AI

Οι άνθρωποι δύσκολα μπορούν να αναγνωρίσουν τα αποτελέσματα της AI που παράγονται από τα μέσα ενημέρωσης από την έρευνα AI

Οι άνθρωποι δύσκολα μπορούν να δουν μέσα που παράγονται από το AI

Οι εικόνες, τα κείμενα και τα αρχεία ήχου που παράγονται από το Ki-Ki είναι τόσο πειστικά που οι άνθρωποι δεν μπορούν πλέον να τα διακρίνουν από το ανθρωπογενές περιεχόμενο. Αυτό είναι το αποτέλεσμα μιας ηλεκτρονικής έρευνας με περίπου 3.000 συμμετέχοντες από τη Γερμανία, την Κίνα και τις ΗΠΑ. Η μελέτη έγινε από τον Cispa-Faculty Dr. Lea Schönherr και τον καθηγητή Dr. Thorsten Holz που διεξήχθη και παρουσιάστηκε στο 45ο Συμπόσιο IEEE για την ασφάλεια και την ιδιωτική ζωή στο Σαν Φρανσίσκο. Η μελέτη διεξήχθη σε συνεργασία με το Πανεπιστήμιο Ruhr Bochum, το Πανεπιστήμιο Leibniz του Ανόβερου και το TU Berlin.

Η ταχεία ανάπτυξη της τεχνητής νοημοσύνης τα τελευταία χρόνια επιτρέπει μάζες, κείμενα και αρχεία ήχου με μερικά μόνο κλικ. Ωστόσο, αυτή η εξέλιξη φέρει κινδύνους, ειδικά όσον αφορά την πολιτική γνώμη. Με τις επερχόμενες σημαντικές εκλογές φέτος, όπως οι κοινοβουλευτικές εκλογές της ΕΕ ή οι προεδρικές εκλογές στις ΗΠΑ, υπάρχει κίνδυνος να χρησιμοποιηθούν τα μέσα ενημέρωσης που παράγονται από την AI για πολιτικό χειρισμό. Αυτός είναι ένας μεγάλος κίνδυνος για τη δημοκρατία.

Ως αποτέλεσμα, η αυτοματοποιημένη ανίχνευση των μέσων AI που παράγεται είναι μια σημαντική ερευνητική πρόκληση. Δεδομένου ότι τα μέσα που δημιουργούνται με νέες μέθοδοι που δημιουργούνται από AI μπορούν να αναγνωριστούν όλο και περισσότερο, είναι τελικά σημαντικό αν ένα άτομο είναι σε θέση να το πράξει. Προκειμένου να εξεταστεί αυτό το ερώτημα, διεξήχθη η μελέτη για να διαπιστωθεί εάν οι άνθρωποι είναι σε θέση να προσδιορίσουν τα μέσα ενημέρωσης που παράγονται από την AI.

Τα αποτελέσματα της μελέτης είναι εκπληκτικά: οι άνθρωποι δυσκολεύονται να διακρίνουν τα πραγματικά μέσα από τα μέσα ενημέρωσης που παράγονται από την AI. Αυτό ισχύει για όλους τους τύπους μέσων όπως τα κείμενα, τα αρχεία ήχου και εικόνας. Παραδόξως, υπάρχουν μόνο μερικοί παράγοντες που μπορούν να εξηγήσουν αν οι άνθρωποι είναι καλύτεροι στην αναγνώριση των μέσων που δημιουργούνται από την ΑΙ. Δεν υπάρχουν σχεδόν καθόλου σημαντικές διαφορές μεταξύ διαφορετικών ηλικιακών ομάδων, εκπαιδευτικού υπόβαθρου, πολιτικών στάσεων ή παιδείας των μέσων ενημέρωσης.

Ποσοτική ηλεκτρονική έρευνα στη Γερμανία, την Κίνα και τις ΗΠΑ πραγματοποιήθηκε για τη μελέτη. Οι συμμετέχοντες ανατέθηκαν τυχαία σε μία από τις τρεις κατηγορίες μέσων (κείμενο, εικόνα ή ήχο) και είδαν τόσο τα πραγματικά μέσα όσο και τα μέσια παραγόμενης AI. Επιπλέον, συλλέχθηκαν κοινωνικο-βιογραφικά δεδομένα σχετικά με τα μέσα ενημέρωσης και άλλους παράγοντες που παράγονται από την ΑΙ. Συνολικά 2.609 αρχεία δεδομένων συμπεριλήφθηκαν στην αξιολόγηση.

Η μελέτη παρέχει σημαντικές γνώσεις για την έρευνα στον κυβερνοχώρο. Υπάρχει ο κίνδυνος να χρησιμοποιούνται κείμενα και αρχεία ήχου που παράγονται από την AI για επιθέσεις κοινωνικής μηχανικής. Η ανάπτυξη αμυντικών μηχανισμών για τέτοια σενάρια επίθεσης είναι ένα σημαντικό καθήκον για το μέλλον. Επιπλέον, πρέπει να κατανοήσουμε καλύτερα τον τρόπο με τον οποίο οι άνθρωποι μπορούν να διακρίνουν καθόλου τα μέσα ενημέρωσης του AI. Μια προγραμματισμένη εργαστηριακή μελέτη αποσκοπεί να ζητήσει από τους συμμετέχοντες να δουν αν αναγνωρίζουν εάν κάτι δημιουργείται ή όχι. Επιπλέον, πρέπει να αναπτυχθούν τεχνικές διαδικασίες για τον αυτοματοποιημένο έλεγχο γεγονότων.

Η πλήρης επιστημονική δημοσίευση της μελέτης μπορεί να προβληθεί στο πλαίσιο του καθορισμένου συνδέσμου.

Πίνακας: Επισκόπηση των αποτελεσμάτων της μελέτης

| Τέχνη των μέσων ενημέρωσης | Αριθμός πραγματικά ταξινομημένων | Αριθμός διαβαθμισμένων |
| ---- | -------- | ---------- |
| Κείμενο | 65% | 35% |
| Εικόνα | 52% | 48% |
| Ήχος | 60% | 40% |

Η μελέτη δείχνει ότι η πλειονότητα των συμμετεχόντων ταξινόμησε τα μέσα ενημέρωσης που παράγονται από την ΑΙ ως ανθρωπογενή, ανεξάρτητα από τον τύπο του μέσου.

Τα αποτελέσματα αυτής της μελέτης παρέχουν πολύτιμες γνώσεις σχετικά με την αντίληψη και την αναγνώριση των μέσων ενημέρωσης που παράγονται από την ΑΙ και αντιπροσωπεύουν σημαντικά σημεία εκκίνησης για περαιτέρω έρευνα στον τομέα αυτό. Παραμένει να δούμε πώς θα αναπτυχθεί η ανάπτυξη της τεχνητής νοημοσύνης στο μέλλον και ποιες συνέπειες θα έχει αυτό για την κοινωνία.


cispa-helmholtz Κέντρο για την ασφάλεια των πληροφοριών/OTS

Kommentare (0)