...

Logo Yotel Air CDG
in partnership with
Logo Nextory

Τεχνητή νοημοσύνη και ISIS: Οι νέες τεχνικές προπαγάνδας και οι κίνδυνοι για την ασφάλεια

• Dec 15, 2025, 8:09 AM
1 min de lecture
1

Καθώς ο υπόλοιπος κόσμος σπεύδει να αξιοποιήσει τη δύναμη της τεχνητής νοημοσύνης (AI), και ακραίες ομάδες πειραματίζονται με την τεχνολογία, ακόμη και αν δεν είναι σίγουρες για το πώς ακριβώς να τη χρησιμοποιήσουν.

Για τις εξτρεμιστικές οργανώσεις, η τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει ένα ισχυρό εργαλείο για στρατολόγηση νέων μελών, παραγωγή ρεαλιστικών deepfake εικόνων και βελτίωση των κυβερνοεπιθέσεών τους, προειδοποιούν ειδικοί εθνικής ασφάλειας και υπηρεσίες κατασκοπείας.

Πρόσφατα, κάποιος που δημοσίευσε σε ιστότοπο υποστηρικτών του Ισλαμικού Κράτους κάλεσε άλλα μέλη να εντάξουν την AI στις επιχειρήσεις τους. «Ένα από τα καλύτερα πράγματα με την AI είναι πόσο εύκολο είναι να τη χρησιμοποιήσεις», έγραψε ο χρήστης στα αγγλικά.

«Ορισμένες υπηρεσίες πληροφοριών ανησυχούν ότι η AI θα συμβάλλει στη στρατολόγηση», συνέχισε ο χρήστης. «Κάντε τους εφιάλτες τους πραγματικότητα.»

Το Ισλαμικό Κράτος, που είχε καταλάβει εδάφη στο Ιράκ και τη Συρία πριν από χρόνια αλλά πλέον είναι μια αποκεντρωμένη συμμαχία ένοπλων ομάδων με κοινή βίαιη ιδεολογία, είχε συνειδητοποιήσει από νωρίς ότι τα social media αποτελούν ισχυρό εργαλείο στρατολόγησης και παραπληροφόρησης. Δεν προκαλεί λοιπόν έκπληξη ότι η ομάδα δοκιμάζει την τεχνητή νοημοσύνη, λένε οι ειδικοί.

Για μικρές, χαλαρά δομημένες ή υποχρηματοδοτούμενες εξτρεμιστικές ομάδες — ή ακόμη και έναν μεμονωμένο κακόβουλο χρήστη με πρόσβαση στο διαδίκτυο — η AI μπορεί να χρησιμοποιηθεί για μαζική παραγωγή προπαγάνδας ή deepfakes, διευρύνοντας την επιρροή τους.

«Για κάθε αντίπαλο, η AI κάνει τα πράγματα πολύ πιο εύκολα», λέει ο Τζον Λαλιμπέρτε, πρώην ερευνητής ευπαθειών στην Υπηρεσία Εθνικής Ασφάλειας των ΗΠΑ και νυν CEO της εταιρείας κυβερνοασφάλειας ClearVector. «Με την AI, ακόμη και μια μικρή ομάδα με περιορισμένα χρήματα μπορεί να έχει αντίκτυπο.»

Πώς οι εξτρεμιστικές ομάδες πειραματίζονται

Οι ένοπλες ομάδες άρχισαν να χρησιμοποιούν την AI μόλις προγράμματα όπως το ChatGPT έγιναν ευρέως διαθέσιμα. Από τότε, χρησιμοποιούν όλο και περισσότερο προγράμματα γεννητικής AI για να δημιουργούν ρεαλιστικές φωτογραφίες και βίντεο.

Όταν αυτό το ψεύτικο περιεχόμενο επεξεργάζεται από αλγορίθμους κοινωνικών μέσων, μπορεί να βοηθήσει στη στρατολόγηση νέων υποστηρικτών, να προκαλέσει σύγχυση ή φόβο στους αντιπάλους και να διαδώσει προπαγάνδα σε κλίμακα που πριν λίγα χρόνια ήταν αδιανόητη.

Παράδειγμα: πριν δύο χρόνια, τέτοιες ομάδες διέδωσαν ψεύτικες εικόνες από τον πόλεμο Ισραήλ-Χαμάς, με βρεγμένα και εγκαταλελειμμένα μωρά σε κατεστραμμένα κτίρια. Οι εικόνες προκάλεσαν οργή και πόλωση, ενώ έκρυβαν την πραγματική φρίκη του πολέμου. Βίαιες ομάδες στη Μέση Ανατολή και αντισημιτικές οργανώσεις στις ΗΠΑ και αλλού τις χρησιμοποίησαν για στρατολόγηση νέων μελών.

Παρόμοιο περιστατικό συνέβη πέρσι μετά από επίθεση που διεκδικήθηκε από παρακλάδι του Ισλαμικού Κράτους και σκότωσε σχεδόν 140 άτομα σε συναυλιακό χώρο στη Ρωσία. Τις μέρες μετά, κυκλοφόρησαν ευρέως βίντεο προπαγάνδας δημιουργημένα με AI, αναζητώντας νέους υποστηρικτές.

Το Ισλαμικό Κράτος έχει επίσης δημιουργήσει deepfake ηχητικά αρχεία με ηγέτες του να απαγγέλλουν στίχους και χρησιμοποιεί AI για γρήγορη μετάφραση μηνυμάτων σε πολλές γλώσσες, σύμφωνα με ερευνητές της SITE Intelligence Group, εταιρείας που παρακολουθεί δραστηριότητες εξτρεμιστών.

«Επιθυμητό» — για την ώρα

Οι ομάδες αυτές υστερούν σε σχέση με Κίνα, Ρωσία ή Ιράν και θεωρούν τις πιο εξελιγμένες χρήσεις της AI «επιθυμητές», λέει ο Μάρκους Φάουλερ, πρώην πράκτορας της CIA και νυν CEO της Darktrace Federal, εταιρείας κυβερνοασφάλειας που συνεργάζεται με την ομοσπονδιακή κυβέρνηση των ΗΠΑ.

Ωστόσο, οι κίνδυνοι είναι πολύ μεγάλοι για να αγνοηθούν και πιθανότατα θα αυξηθούν καθώς η χρήση φθηνής και ισχυρής AI επεκτείνεται.

Οι χάκερ χρησιμοποιούν ήδη συνθετικό ήχο και βίντεο σε phishing εκστρατείες, προσπαθώντας να μιμηθούν ανώτερους επιχειρηματικούς ή κυβερνητικούς ηγέτες για να αποκτήσουν πρόσβαση σε ευαίσθητα δίκτυα. Μπορούν επίσης να χρησιμοποιούν AI για να γράφουν κακόβουλο κώδικα ή να αυτοματοποιούν τμήματα κυβερνοεπιθέσεων.

Πιο ανησυχητικό είναι ότι οι ένοπλες ομάδες μπορεί να επιχειρήσουν να χρησιμοποιήσουν AI για παραγωγή βιολογικών ή χημικών όπλων, καλύπτοντας την έλλειψη τεχνικής εμπειρίας. Αυτός ο κίνδυνος αναφέρεται στην αναθεωρημένη «Αξιολόγηση Απειλών Εσωτερικής Ασφάλειας» του Υπουργείου Εσωτερικής Ασφάλειας των ΗΠΑ.

«Το ISIS μπήκε νωρίς στο Twitter και βρήκε τρόπους να χρησιμοποιήσει τα social media προς όφελός του», λέει ο Φάουλερ. «Πάντα αναζητούν το επόμενο εργαλείο για το οπλοστάσιό τους.»

Αντιμετώπιση μιας αυξανόμενης απειλής

Νομοθέτες έχουν προτείνει μέτρα, υπογραμμίζοντας την επείγουσα ανάγκη δράσης.

Ο Μαρκ Ουόρνερ, γερουσιαστής της Βιρτζίνια και κορυφαίος Δημοκρατικός στην Επιτροπή Πληροφοριών της Γερουσίας, δήλωσε ότι οι ΗΠΑ πρέπει να διευκολύνουν τους προγραμματιστές AI να μοιράζονται πληροφορίες για το πώς χρησιμοποιούνται τα προϊόντα τους από κακόβουλους χρήστες, είτε πρόκειται για εξτρεμιστές, εγκληματίες ή ξένες υπηρεσίες πληροφοριών.

«Από τα τέλη του 2022, με τη δημόσια κυκλοφορία του ChatGPT, ήταν προφανές ότι η ίδια φασίνωση και πειραματισμός με την AI που έχει το κοινό θα εφαρμοστεί και σε διάφορους κακόβουλους παράγοντες», είπε ο Ουόρνερ.

Κατά την πρόσφατη ακρόαση για τις εξτρεμιστικές απειλές, νομοθέτες της Βουλής των Αντιπροσώπων έμαθαν ότι το IS και η αλ-Κάιντα έχουν διοργανώσει εργαστήρια για να εκπαιδεύσουν υποστηρικτές στη χρήση AI.

Νομοθεσία που εγκρίθηκε τον προηγούμενο μήνα απαιτεί από αξιωματούχους εσωτερικής ασφάλειας να αξιολογούν κάθε χρόνο τους κινδύνους που θέτουν τέτοιες ομάδες με την AI.

«Η προστασία από τη κακόβουλη χρήση της AI δεν διαφέρει από την προετοιμασία για πιο συμβατικές επιθέσεις», δήλωσε ο Όγκουστ Πφλούγκερ, εκπρόσωπος του Τέξας και χορηγός του νομοσχεδίου. «Οι πολιτικές και οι δυνατότητές μας πρέπει να συμβαδίζουν με τις απειλές του αύριο.»