Τους κινδύνους που εγκυμονεί η χρήση της τεχνολογίας , ως πιθανό μέσο παραπληροφόρησης σε καιρό πολέμου, ανέδειξε η ευρεία διάδοση δορυφορικών εικόνων που φαίνεται να έχουν δημιουργηθεί ή τροποποιηθεί με τεχνητή νοημοσύνη (AI) και μοιράστηκαν ευρύτατα στα μέσα κοινωνικής δικτύωσης το Σαββατοκύριακο.
Μια εικόνα που κυκλοφόρησε στο X — συμπεριλαμβανομένης μιας ανάρτησης από τον επίσημο λογαριασμό της ιρανικής εφημερίδας Tehran Times — δείχνει μια δορυφορική εικόνα που ισχυρίζεται ότι απεικονίζει ζημιές σε ένα αμερικανικό ραντάρ στο Κατάρ μετά από μια ιρανική επίθεση με drone.
Η ανάλυση των Financial Times αποκαλύπτει ότι πρόκειται για μια εικόνα μιας περιοχής στο Μπαχρέιν που έχει τροποποιηθεί με τεχνητή νοημοσύνη. Βίντεο που επαληθεύτηκαν επίσης από τους FT δείχνουν αρκετές επιθέσεις κοντά στο ραντάρ, ενώ δορυφορικές εικόνες που τραβήχτηκαν από την Planet Labs την 1η Μαρτίου επιβεβαιώνουν ότι η περιοχή έχει υποστεί ζημιές.
Η έκθεση στην παραπληροφόρηση
Ωστόσο, η εικόνα του κατεστραμμένου ραντάρ παρουσιάζει σημάδια παραποίησης: οχήματα που εμφανίζονταν στη φωτογραφία «πριν» που τραβήχτηκε πριν από περισσότερο από ένα χρόνο παραμένουν στην ίδια θέση, οι σκιές πέφτουν ακριβώς στην ίδια γωνία με την προηγούμενη εικόνα και τμήματα της δομής του κτιρίου έχουν τροποποιηθεί. Ιστορικές δορυφορικές εικόνες δεν δείχνουν καμία δομική αλλαγή στον χώρο εδώ και πολλά χρόνια.
Κατά τη στιγμή της δημοσίευσης, μόνο η ανάρτηση της Tehran Times είχε σχεδόν 1 εκατομμύριο προβολές, μοιράστηκε χιλιάδες φορές και παρέμεινε online για περισσότερο από 48 ώρες μετά τη δημοσίευσή της. Οι FT εντόπισαν περιπτώσεις όπου η εικόνα μοιράστηκε σε άλλες πλατφόρμες κοινωνικών μέσων και ιστότοπους.
Το επεισόδιο αντικατοπτρίζει μια ευρύτερη αλλαγή στον πόλεμο της πληροφορίας, καθώς η γενετική τεχνητή νοημοσύνη καθιστά ευκολότερη την κατασκευή πειστικών οπτικών αποδεικτικών στοιχείων και δυσκολότερη για το κοινό τη διάκριση μεταξύ τεκμηρίωσης και εξαπάτησης.
Μέτρα παίρνει το «Χ»
Σε απάντηση στην αύξηση των ψεύτικων βίντεο που κυκλοφορούν στην πλατφόρμα, η επικεφαλής προϊόντων της «X», Νικίτα Μπίερ , δημοσίευσε την Τρίτη ότι η εταιρεία θα εντείνει τις προσπάθειές της για τον περιορισμό του περιεχομένου που δημιουργείται από τεχνητή νοημοσύνη. Οι χρήστες που θα μοιράζονται υλικό χωρίς την κατάλληλη γνωστοποίηση θα αποκλείονται από την απόκτηση εσόδων για 90 ημέρες, ενώ οι επαναλαμβανόμενοι παραβάτες θα αντιμετωπίζουν μόνιμη αναστολή, δήλωσε η Μπίερ.
Ο Μπράντι Αφρίκ, ανεξάρτητος ερευνητής ανοιχτών πηγών πληροφοριών και διευθυντής δημοσίων σχέσεων στο American Enterprise Institute, δήλωσε ότι οι άνθρωποι τείνουν να εμπιστεύονται τις δορυφορικές εικόνες ως πηγή αλήθειας λόγω της πολύπλοκης τεχνολογίας που απαιτείται για τη λήψη τους.
«Οι δορυφορικές εικόνες μπορούν να παραποιηθούν όπως και άλλες εικόνες. Η τεχνητή νοημοσύνη έχει κάνει αυτό το έργο πολύ πιο εύκολο και αποτελεί σημαντική απειλή για τους ανθρώπους που προσπαθούν να βρουν πληροφορίες στο διαδίκτυο», δήλωσε ο Αφρίκ. Πρόσθεσε ότι ανησυχεί ότι η ραγδαία βελτίωση αυτών των μοντέλων θα κάνει τα ψεύτικα πιο δύσκολο να εντοπιστούν σε μελλοντικές συγκρούσεις.
Οι δυσκολίες που υπάρχουν
Η δυσκολία στην αναγνώριση μιας παραποιημένης δορυφορικής εικόνας, σε σύγκριση με ένα deepfake ενός ατόμου, είναι η «έλλειψη βιομετρικών στοιχείων», σύμφωνα με τον Χένκ βαν Ες, εμπειρογνώμονα σε μεθόδους διαδικτυακής έρευνας και συγγραφέα του ενημερωτικού δελτίου Digital Digging.
«Σε ένα πρόσωπο, μπορείς να αναζητήσεις περίεργο ανοιγοκλείσιμο των ματιών, αφύσικη υφή του δέρματος, παραμορφωμένα αυτιά», είπε. «Σε μια δορυφορική εικόνα, κοιτάς κτίρια, δρόμους, έδαφος — πράγματα που δεν έχουν αυτά τα εγγενή χαρακτηριστικά. Και οι περισσότεροι άνθρωποι δεν έχουν ιδέα πώς πρέπει να μοιάζει μια γνήσια δορυφορική εικόνα από έναν συγκεκριμένο αισθητήρα σε μια συγκεκριμένη ανάλυση», είπε.
«Η βασική αλλαγή είναι η εξής: παλαιότερα χρειαζόταν μια κρατική υπηρεσία πληροφοριών με γνώσεις Photoshop για να πλαστογραφήσει μια δορυφορική εικόνα. Τώρα, οποιοσδήποτε έχει πρόσβαση σε ελεύθερα διαθέσιμα εργαλεία τεχνητής νοημοσύνης μπορεί να δημιουργήσει κάτι αρκετά πειστικό ώστε να ξεγελάσει τους περιστασιακούς θεατές και να επηρεάσει τις αγορές. Το εμπόδιο έχει καταρρεύσει», πρόσθεσε ο βαν Ες.
Μια άλλη ευρέως διαδεδομένη εικόνα που έχει τροποποιηθεί με τεχνητή νοημοσύνη φαίνεται να είναι μια αναβαθμισμένη, έγχρωμη έκδοση μιας ασπρόμαυρης εικόνας που τραβήχτηκε από την Airbus, την αεροδιαστημική εταιρεία. Δεν είναι σαφές από πού προήλθε η παραποιημένη εικόνα. Η εικόνα φέρει υδατογράφημα με το όνομα MizarVision, μιας κινεζικής νεοφυούς εταιρείας που ασχολείται με το διάστημα και έχει δημοσιεύσει τις τελευταίες εβδομάδες δορυφορικές φωτογραφίες της στρατιωτικής ενίσχυσης των ΗΠΑ στη Μέση Ανατολή, αλλά η εικόνα δεν εμφανίζεται στις σελίδες της εταιρείας στα μέσα κοινωνικής δικτύωσης.
Η επίσημη σελίδα της MizarVision φέρει επί του παρόντος προειδοποίηση σχετικά με λογαριασμούς στα μέσα κοινωνικής δικτύωσης που ισχυρίζονται ότι διανέμουν τις εικόνες της. Η MizarVision και η Tehran Times δεν απάντησαν σε αιτήματα για σχόλια.
Η χρήση τεχνητής νοημοσύνης για την προσθήκη χρώματος σε δορυφορικές εικόνες μπορεί να αλλάξει ελαφρώς τον τρόπο με τον οποίο οι άνθρωποι βλέπουν τη σκηνή, εισάγοντας διαφορές που μπορεί να μην υπάρχουν στην πραγματικότητα, σύμφωνα με τον Bo Zhao, καθηγητή ψηφιακής γεωγραφίας στο Πανεπιστήμιο της Ουάσιγκτον.
Η μάχη της παραπληροφόρησης
Ο σύγκρουση στη Μέση Ανατολή δεν είναι ο πρώτος πόλεμος που επηρεάζεται από παραπληροφόρηση που βασίζεται στην τεχνητή νοημοσύνη. Υπήρξαν αναφορές για ψεύτικες δορυφορικές εικόνες μετά τη σύγκρουση τεσσάρων ημερών μεταξύ Ινδίας και Πακιστάν πέρυσι και παρόμοιες ισχυρισμοί έχουν γίνει κατά τη διάρκεια του πολέμου μεταξύ Ουκρανίας και Ρωσίας, σημειώνουν οι FT.
«Νομίζω ότι είναι σε μεγάλο βαθμό θέμα εκπαίδευσης και ευαισθητοποίησης, ώστε να διασφαλιστεί ότι όσο το δυνατόν περισσότεροι άνθρωποι γνωρίζουν τους τρόπους με τους οποίους τα ψηφιακά μέσα μπορούν να χειραγωγηθούν», δήλωσε ο ανεξάρτητος ερευνητής Μπράντι Αφρίκ.
























![Ακίνητα: Ποιοι ξένοι αγοράζουν διαμερίσματα στην Ελλάδα [πίνακες]](https://www.ot.gr/wp-content/uploads/2025/12/akinita1-e1727899707686-1024x684-1-1-1.jpg)









