ΕΠΙΣΤΗΜΗ-LIFE

OpenAI: Η Τεχνητή Νοημοσύνη στην υπηρεσία της προπαγάνδας

Εικόνα του άρθρου OpenAI: Η Τεχνητή Νοημοσύνη στην υπηρεσία της προπαγάνδας
ΣΥΝΤΑΚΤΗΣ: Κύριος Τύπος
ΔΗΜΟΣΙΕΥΣΗ: 31/05/2024, 12:57
ΕΠΙΣΤΗΜΗ-LIFE

Η OpenAI δημοσίευσε την Πέμπτη την πρώτη της έκθεση σχετικά με το πώς τα εργαλεία τεχνητής νοημοσύνης της χρησιμοποιούνται για μυστικές επιχειρήσεις επιρροής, αποκαλύπτοντας ότι η εταιρεία διέκοψε εκστρατείες παραπληροφόρησης που προέρχονταν από τη Ρωσία, την Κίνα, το Ισραήλ και το Ιράν.

Οι δράστες χρησιμοποίησαν τα παραγωγικά μοντέλα τεχνητής νοημοσύνης της εταιρείας για να δημιουργήσουν και να δημοσιεύσουν προπαγανδιστικό περιεχόμενο σε πλατφόρμες κοινωνικής δικτύωσης και να μεταφράσουν το περιεχόμενό τους σε διάφορες γλώσσες. Σύμφωνα με την έκθεση, καμία από τις εκστρατείες δεν έτυχε ευρείας απήχησης.

Η 39σέλιδη έκθεση της OpenAI είναι μία από τις πιο λεπτομερείς αναφορές μιας εταιρείας τεχνητής νοημοσύνης σχετικά με τη χρήση του λογισμικού της για προπαγάνδα. Η OpenAI ισχυρίστηκε ότι οι ερευνητές της βρήκαν και απαγόρευσαν λογαριασμούς που σχετίζονται με πέντε μυστικές επιχειρήσεις επιρροής κατά τους τελευταίους τρεις μήνες, οι οποίοι προέρχονταν από ένα μείγμα κρατικών και ιδιωτικών φορέων.

Κυβερνήσεις, πολιτικά κόμματα και ομάδες ακτιβιστών χρησιμοποιούν τα μέσα κοινωνικής δικτύωσης για να προσπαθήσουν να επηρεάσουν την πολιτική εδώ και χρόνια. Μετά τις ανησυχίες για τη ρωσική επιρροή στις προεδρικές εκλογές του 2016, οι πλατφόρμες κοινωνικής δικτύωσης άρχισαν να δίνουν μεγαλύτερη προσοχή στον τρόπο με τον οποίο οι ιστότοποί τους χρησιμοποιούνταν για να επηρεάσουν τους ψηφοφόρους. Οι εταιρείες απαγορεύουν γενικά στις κυβερνήσεις και τις πολιτικές ομάδες να καλύπτουν συντονισμένες προσπάθειες επηρεασμού των χρηστών και οι πολιτικές διαφημίσεις πρέπει να αποκαλύπτουν ποιος τις πλήρωσε.

Καθώς τα εργαλεία τεχνητής νοημοσύνης που μπορούν να παράγουν ρεαλιστικά κείμενα, εικόνες, ακόμη και βίντεο γίνονται γενικά διαθέσιμα, οι ερευνητές της παραπληροφόρησης έχουν εκφράσει ανησυχίες ότι θα γίνει ακόμη πιο δύσκολο να εντοπίζονται και να απαντώνται οι ψευδείς πληροφορίες ή οι μυστικές επιχειρήσεις επιρροής στο διαδίκτυο. Εκατοντάδες εκατομμύρια άνθρωποι ψηφίζουν στις εκλογές σε όλο τον κόσμο φέτος, και οι γενεσιουργές απομιμήσεις τεχνητής νοημοσύνης έχουν ήδη πολλαπλασιαστεί.

Στη Ρωσία, δύο επιχειρήσεις δημιούργησαν και διέδωσαν περιεχόμενο που επέκρινε τις ΗΠΑ, την Ουκρανία και διάφορα κράτη της Βαλτικής. Μία από τις επιχειρήσεις χρησιμοποίησε ένα μοντέλο OpenAI για την ανίχνευση κώδικα και τη δημιουργία ενός bot που δημοσιεύτηκε στο Telegram. 

Η επιχείρηση επιρροής στην Κίνα δημιούργησε κείμενο στα αγγλικά, κινεζικά, ιαπωνικά και κορεατικά, το οποίο οι πράκτορες στη συνέχεια δημοσίευσαν στο Twitter και στο Medium.

Οι Ιρανοί δημιούργησαν πλήρη άρθρα που επιτίθονταν στις ΗΠΑ και το Ισραήλ, τα οποία μετέφρασαν στα αγγλικά και τα γαλλικά. 

Μια ισραηλινή πολιτική εταιρεία με την ονομασία Stoic διηύθυνε ένα δίκτυο ψεύτικων λογαριασμών στα μέσα κοινωνικής δικτύωσης, οι οποίοι δημιούργησαν ένα ευρύ φάσμα περιεχομένου, συμπεριλαμβανομένων αναρτήσεων που κατηγορούσαν ως αντισημιτικές τις διαμαρτυρίες Αμερικανών φοιτητών κατά του πολέμου του Ισραήλ στη Γάζα.

Την Τετάρτη, ο ιδιοκτήτης του Facebook, Meta, δημοσιοποίησε επίσης τη δράση της Stoic, λέγοντας ότι αφαίρεσε 510 λογαριασμούς Facebook και 32 λογαριασμούς Instagram που χρησιμοποιούσε η ομάδα. Ορισμένοι από τους λογαριασμούς είχαν παραβιαστεί, ενώ άλλοι ήταν φανταστικών ανθρώπων, δήλωσε η εταιρεία στους δημοσιογράφους.

Παρόλο που καμία από τις εκστρατείες δεν είχε αξιόλογο αντίκτυπο, η χρήση της τεχνολογίας από αυτούς δείχνει πώς οι κακόβουλοι φορείς ανακαλύπτουν ότι η δημιουργική τεχνητή νοημοσύνη τους επιτρέπει να αυξήσουν την παραγωγή προπαγάνδας. Η συγγραφή, η μετάφραση και η ανάρτηση περιεχομένου μπορούν πλέον να γίνουν πιο αποτελεσματικά μέσω της χρήσης εργαλείων τεχνητής νοημοσύνης, μειώνοντας τον πήχη για τη δημιουργία εκστρατειών παραπληροφόρησης.

Τον τελευταίο χρόνο, κακόβουλοι φορείς χρησιμοποίησαν τη γενεσιουργό ΤΝ σε χώρες σε όλο τον κόσμο για να προσπαθήσουν να επηρεάσουν την πολιτική και την κοινή γνώμη. Deepfake ήχος, εικόνες που δημιουργήθηκαν με τεχνητή νοημοσύνη και καμπάνιες με βάση το κείμενο χρησιμοποιήθηκαν για να διαταράξουν τις προεκλογικές εκστρατείες, οδηγώντας σε αυξημένη πίεση σε εταιρείες όπως η OpenAI να περιορίσουν τη χρήση των εργαλείων τους.

Η OpenAI δήλωσε ότι σχεδιάζει να δημοσιεύει περιοδικά παρόμοιες εκθέσεις σχετικά με τις μυστικές επιχειρήσεις επιρροής, καθώς και να αφαιρεί λογαριασμούς που παραβιάζουν τις πολιτικές της.

Με πληροφορίες από Guardian, Washington Post

ΣΧΟΛΙΑ
ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ
Μαννι πισω dodoni back