«Είναι Ιούλιος του 2027 και η Κίνα βρίσκεται στα πρόθυρα της εισβολής στην Ταϊβάν. Αυτόνομα drones με δυνατότητες στόχευσης μέσω Τεχνητής Νοημοσύνης είναι έτοιμα να υπερνικήσουν την αεράμυνα του νησιού, καθώς μια σειρά από κυβερνοεπιθέσεις που δημιουργούνται από την Τεχνητή Νοημοσύνη διακόπτουν την παροχή ενέργειας και τις βασικές επικοινωνίες.
Εν τω μεταξύ, μια τεράστια εκστρατεία παραπληροφόρησης που διεξάγεται από μια φιλοκινεζική φάρμα meme που υποστηρίζεται από την Τεχνητή Νοημοσύνη εξαπλώνεται στα παγκόσμια μέσα κοινωνικής δικτύωσης, καταπνίγοντας την κατακραυγή για την επιθετική πράξη του Πεκίνου.
Η χρήση της Τεχνητής Νοημοσύνης στον πόλεμο
Σενάρια όπως αυτό, γράφει η Ελεν Γουόρελ, δημοσιογράφος ερευνών των Finnancial Times και πρώην συντάκτρια άμυνας και ασφάλειας, έχουν φέρει δυστοπική φρίκη στη συζήτηση σχετικά με τη χρήση της Τεχνητής Νοημοσύνης στον πόλεμο.
Οι στρατιωτικοί διοικητές ελπίζουν σε μια ψηφιακά ενισχυμένη δύναμη που είναι ταχύτερη και ακριβέστερη από την ανθρώπινη μάχη. Υπάρχουν όμως φόβοι ότι, καθώς η Τεχνητή Νοημοσύνη αναλαμβάνει έναν ολοένα και πιο κεντρικό ρόλο, οι ίδιοι αυτοί διοικητές θα χάσουν τον έλεγχο μιας σύγκρουσης που κλιμακώνεται πολύ γρήγορα και στερείται ηθικής ή νομικής εποπτείας.
Ο Χένρι Κίσινγκερ, ο πρώην υπουργός Εξωτερικών των ΗΠΑ, πέρασε τα τελευταία χρόνια της ζωής του προειδοποιώντας για την επερχόμενη καταστροφή του πολέμου που καθοδηγείται από την Τεχνητή Νοημοσύνη.

Η κατανόηση και η μετριασμός αυτών των κινδύνων αποτελεί στρατιωτική προτεραιότητα — κάποιοι θα έλεγαν «τη στιγμή του Oppenheimer» — της εποχής μας. Μια αναδυόμενη συναίνεση στη Δύση είναι ότι οι αποφάσεις σχετικά με την ανάπτυξη πυρηνικών όπλων δεν πρέπει να ανατίθενται στην τεχνητή νοημοσύνη.
Ο γενικός γραμματέας του ΟΗΕ Αντόνιο Γκουτέρες προχώρησε ακόμη περισσότερο, ζητώντας την πλήρη απαγόρευση των πλήρως αυτόνομων θανατηφόρων οπλικών συστημάτων. Είναι απαραίτητο η νομοθεσία να συμβαδίζει με την εξελισσόμενη τεχνολογία. Ωστόσο, μέσα στον ενθουσιασμό που τροφοδοτεί η επιστημονική φαντασία, είναι εύκολο να χάσουμε την επαφή με το τι είναι πραγματικά εφικτό.
Όπως επισημαίνουν οι ερευνητές του Belfer Center του Χάρβαρντ, οι αισιόδοξοι της τεχνητής νοημοσύνης συχνά υποτιμούν τις προκλήσεις που συνεπάγεται η χρήση πλήρως αυτόνομων οπλικών συστημάτων. Είναι απολύτως πιθανό οι δυνατότητες της τεχνητής νοημοσύνης στον τομέα της μάχης να υπερεκτιμούνται.
Διορατικότητα
Ο καθηγητής Αντονι Κίνγκ, βασικός υποστηρικτής αυτού του επιχειρήματος, προτείνει ότι αντί να αντικαταστήσει τους ανθρώπους, η τεχνητή νοημοσύνη θα χρησιμοποιηθεί για τη βελτίωση της στρατιωτικής διορατικότητας.
Ακόμη και αν ο χαρακτήρας του πολέμου αλλάζει και η τεχνολογία εξ αποστάσεως βελτιώνει τα οπλικά συστήματα, επιμένει: «Η πλήρης αυτοματοποίηση του πολέμου είναι απλώς μια ψευδαίσθηση».

Από τις τρεις τρέχουσες στρατιωτικές εφαρμογές της τεχνητής νοημοσύνης, καμία δεν αποτελεί πλήρη αυτονομία. Αναπτύσσεται για σκοπούς σχεδιασμού και logistics, κυβερνοπολέμου (σε σαμποτάζ, κατασκοπεία, hacking και επιχειρήσεις πληροφοριών) και, το πιο αμφιλεγόμενο, στόχευση όπλων.
Το τελευταίο χρησιμοποιείται ήδη στα πεδία μάχης της Ουκρανίας και της Γάζας. Οι στρατιωτικές δυνάμεις του Κιέβου χρησιμοποιούν λογισμικό τεχνητής νοημοσύνης για να κατευθύνουν drones που είναι σε θέση να παρακάμπτουν τα ρωσικά συστήματα παρεμβολής καθώς πλησιάζουν σε ευαίσθητες περιοχές. Οι Ισραηλινές Αμυντικές Δυνάμεις έχουν αναπτύξει ένα σύστημα υποστήριξης αποφάσεων με τη βοήθεια τεχνητής νοημοσύνης, γνωστό ως «Lavender», το οποίο έχει βοηθήσει στον εντοπισμό περίπου 37.000 πιθανών ανθρώπινων στόχων εντός της Γάζας.
Υπάρχει σαφώς ο κίνδυνος η βάση δεδομένων Lavender να αναπαράγει τις προκαταλήψεις των δεδομένων με τα οποία έχει εκπαιδευτεί. Ωστόσο, και το στρατιωτικό προσωπικό έχει προκαταλήψεις. Ένας Ισραηλινός αξιωματικός των μυστικών υπηρεσιών που χρησιμοποίησε το Lavender ισχυρίστηκε ότι έχει περισσότερη εμπιστοσύνη στην αμεροληψία ενός «στατιστικού μηχανισμού» παρά σε έναν πενθούντα στρατιώτη.
Εξοικείωση
Οι τεχνολογικά αισιόδοξοι , που σχεδιάζουν όπλα τεχνητής νοημοσύνης αρνούνται ακόμη και ότι χρειάζονται συγκεκριμένοι νέοι έλεγχοι για τη διαχείριση των δυνατοτήτων τους. Ο Κήθ Ντίαρ , πρώην αξιωματικός του βρετανικού στρατού που τώρα διευθύνει την εταιρεία στρατηγικών προβλέψεων Cassi AI, λέει ότι οι υπάρχοντες νόμοι είναι περισσότερο από επαρκείς.
«Βεβαιώνεστε ότι δεν υπάρχει τίποτα στα δεδομένα εκπαίδευσης που θα μπορούσε να προκαλέσει την παραβίαση του συστήματος… όταν είστε σίγουροι ότι το αναπτύσσετε — και εσείς, ο ανθρώπινος διοικητής, είστε υπεύθυνος για οτιδήποτε μπορεί να κάνουν που πάει στραβά».
Είναι ενδιαφέρουσα η σκέψη ότι μέρος του φόβου και του σοκ για τη χρήση της τεχνητής νοημοσύνης στον πόλεμο μπορεί να προέρχεται από όσους δεν είναι εξοικειωμένοι με τις βίαιες αλλά ρεαλιστικές στρατιωτικές νόρμες.



























![ΕΕ: Πόσο κοστίζει ο πόλεμος Ρωσίας- Ουκρανίας [γραφήματα]](https://www.ot.gr/wp-content/uploads/2025/11/1b11f28dc5598a81e4fe0fba2c47a26c_XL-1.jpg)





