Η ανθρωπότητα βρίσκεται στα πρόθυρα μιας νέας εποχής πολέμων.
Καθοδηγούμενες από τις ραγδαίες εξελίξεις στην Τεχνητή Νοημοσύνη, οι πλατφόρμες όπλων που μπορούν να εντοπίσουν, να στοχεύσουν και να αποφασίσουν να σκοτώσουν ανθρώπινα όντα από μόνες τους —χωρίς κάποιος αξιωματικός να διευθύνει την επίθεση ή ένας στρατιώτης να πατήσει τη σκανδάλη— αλλάζουν με ταχύτητα το μέλλον των συγκρούσεων.
Τεχνητή νοημοσύνη: Πώς θα έμοιαζε σήμερα ο Μέγας Αλέξανδρος;
Επισήμως, ονομάζονται θανατηφόρα αυτόνομα οπλικά συστήματα (LAWS), αλλά οι επικριτές τους τα αποκαλούν ρομπότ δολοφόνους. Πολλές χώρες, συμπεριλαμβανομένων των ΗΠΑ, της Κίνας, του Ηνωμένου Βασιλείου, της Ινδίας, του Ιράν, του Ισραήλ, της Νότιας Κορέας, της Ρωσίας και της Τουρκίας, έχουν επενδύσει πολλά στην ανάπτυξη τέτοιων όπλων τα τελευταία χρόνια.
Μια έκθεση των Ηνωμένων Εθνών εκτιμά ότι τα τουρκικής κατασκευής drones Kargu-2 σηματοδότησαν την αυγή αυτής της νέας εποχής, όταν επιτέθηκαν σε μαχητές στη Λιβύη το 2020 εν μέσω της συνεχιζόμενης σύγκρουσης στη χώρα.
Τα αυτόνομα μη επανδρωμένα αεροσκάφη διαδραμάτισαν επίσης κρίσιμο ρόλο στον πόλεμο στην Ουκρανία, όπου τόσο η Μόσχα όσο και το Κίεβο έχουν αναπτύξει αυτά τα όπλα χωρίς πληρώματα για να στοχεύσουν εχθρικούς στρατιώτες και υποδομές.
Η μεγάλη δημόσια συζήτηση
Η εμφάνιση και η ανάπτυξη τέτοιων μηχανών έχουν προκαλέσει έντονες συζητήσεις μεταξύ ειδικών, ακτιβιστών και διπλωματών σε παγκόσμιο επίπεδο, καθώς ανταλλάσσουν επιχειρήματα για τα πιθανά οφέλη και τους ενδεχόμενους κινδύνους από τη χρήση ρομπότ. Ταυτόχρονα το ερώτημα για το εάν πρέπει να τις φρενάρουν εδώ και τώρα ανεβάζει την ένταση και παραμένει χωρίς απάντηση.
Ωστόσο, σε ένα ολοένα και πιο διχασμένο γεωπολιτικό τοπίο, μπορεί η διεθνής κοινότητα να φτάσει σε οποιαδήποτε συναίνεση γι’ αυτές τις μηχανές; Μπορούν οι ηθικές, νομικές και τεχνολογικές απειλές που θέτουν τέτοια όπλα να τα βάλουν στον πάγο πριν κυριαρχήσουν στο πεδίο της μάχης; Είναι εφικτή μια γενική απαγόρευση ή η εισαγωγή μιας δέσμης κανονισμών αποτελεί μια πιο ρεαλιστική επιλογή; Εκτενές σχετικό άρθρο του Al Jazeera καταπιάστηκε με αυτά τα ερωτήματα, τα έθεσε σε κορυφαίους ειδικούς του συγκεκριμένου τομέα και πήρε κάποιες απαντήσεις που δίνουν τροφή για σκέψη.
Μια πρώτη σύντομη απάντηση είναι ότι η πλήρης απαγόρευση των αυτόνομων οπλικών συστημάτων δεν φαίνεται πιθανή σύντομα. Ο κόσμος διχάζεται ανάμεσα σε αυτούς που πιστεύουν ότι επιβάλλεται η εισαγωγή πολλών κανονισμών που θα «ακυρώνουν» επί της ουσίας το βεληνεκές της χρήσης τους και όσους «γλυκαίνονται» από τις υποσχέσεις σίγουρης νίκης που κομίζουν.
Η Γιασμίν Αφίνα, συνεργάτης ερευνήτρια στη δεξαμενή σκέψης Chatham House με έδρα το Λονδίνο, παρουσίασε μόλις το Μάρτιο στη Βουλή των Κοινοτήτων, πως η Υπηρεσία Εθνικής Ασφαλείας των ΗΠΑ (NSA) αναγνώρισε κάποια στιγμή λανθασμένα δημοσιογράφο του Al Jazeera για μεταφορέα της Αλ Κάιντα. Το συμβάν, που οδήγησε στο να μπει το όνομα του προαναφερόμενου δημοσιογράφου στη λίστα με τα άτομα ενδιαφέροντος των ΗΠΑ, αποκαλύφθηκε από τη διαρροή εγγράφων του 2013 από τον Έντουαρντ Σνόουντεν, που εργαζόταν με συμβόλαιο στην NSA.
Το σύστημα επιτήρησης πίσω από το συμβάν δεν είναι φονικό, ωστόσο μπορεί να επιφέρει τον θάνατο, στη συγκεκριμένη περίπτωση του δημοσιογράφου, σε άλλες περιστάσεις πολλών άλλων, επιχειρηματολόγησε η Αφίνα.
Μαζικοί θάνατοι;
Η πιθανότητα τα LAWSνα να πυροδοτήσουν μια σειρά κλιμακούμενων γεγονότων με κατάληξη μαζικούς θανάτους ανησύχησε τον Τόμπι Γουέλς, ειδικό στην Τεχνητή Νοημοσύνη στο πανεπιστήμιο New South Wales στο Σίδνεϊ της Αυστραλίας. «Ξέρουμε τι συμβαίνει όταν βάζουμε περίπλοκα ηλεκτρονικά συστήματα το ένα εναντίον του άλλου σε ένα αβέβαιο και ανταγωνιστικό περιβάλλον. Ονομάζεται… χρηματιστήριο», έγραψε ο ίδιος σε αναφορά του στη Βουλή των Λόρδων.
Αυτό όμως δεν σημαίνει, κατά τον ίδιο, ότι πρέπει οι ερευνητές να σταματήσουν να αναπτύσσουν την τεχνολογία που είναι πίσω από τα αυτόματα οπλικά συστήματα, καθώς μπορεί να έχει σημαντικά οφέλη σε άλλα πεδία.
Για παράδειγμα, ο ίδιος αλγόριθμος χρησιμοποιείται στα συστήματα ασφαλείας των αυτοκινήτων για να αποφεύγεται η σύγκρουση τους με τους πεζούς. «Θα ήταν ηθικά λάθος να αρνούμαστε στον κόσμο την ευκαιρία να μειώσουμε τα τροχαία στους δρόμους», συνεχίζει ο ίδιος.
Μια πιθανότητα θα ήταν η προσέγγιση τους με τον ίδιο τρόπο που περιορίστηκαν τα χημικά όπλα, δηλαδή μέσω της Σύμβασης για τα Χημικά Όπλα των Ηνωμένων Εθνών, που εμποδίζει την ανάπτυξη, την παραγωγή, τη συσσώρευση και τη χρήση τους. «Δεν μπορούμε να βάλουμε τη Πανδώρα μέσα στο κουτί, αλλά αυτά τα μέτρα έχουν καταφέρει σε γενικό πλαίσιο να περιορίσουν τη λανθασμένη χρήση στα πεδία σε όλο τον κόσμο», καταλήγει.
Τα οφέλη της Τεχνητής Νοημοσύνης
Επί της ουσίας, τα αυτόνομα οπλικά συστήματα που καθορίζονται από την Τεχνητή Νοημοσύνη έχουν μεγάλα οφέλη από στρατιωτικής άποψης. Για παράδειγμα μπορούν να διεκπεραιώσουν κάποιες αποστολές χωρίς τη χρήση στρατιωτών, μειώνοντας κατά αυτόν τον τρόπο τις απώλειες.
Οι υποστηρικτές τους υπερτονίζουν ότι αυτά τα συστήματα μπορούν επίσης να ελαττώσουν τα ανθρώπινα λάθη στη λήψη αποφάσεων και να εκμηδενίσουν τις προκαταλήψεις, ενώ η ακρίβεια τους μπορεί, τουλάχιστον θεωρητικά, να μειώσει τις απώλειες.
Για κάποιους άλλους ειδικούς ωστόσο, οι κίνδυνοι από τα LAWS ξεπερνούν τα πλεονεκτήματα της χρήσης τους, καθώς οι πιθανές τεχνικές δυσλειτουργίες, οι παραβιάσεις των διεθνών νόμων και οι ηθικές ανησυχίες για τα μηχανήματα που παίρνουν αποφάσεις για τη ζωή και τον θάνατο δεν μπορούν να αγνοηθούν.
Και ποιος είναι υπόλογος;
Στο κέντρο όλων αυτών είναι το καυτό ερώτημα για το ποιος φέρει την ευθύνη για ότι κακό συμβεί, δηλαδή ποιος θα είναι υπόλογος σε μια αστοχία τους με καταστροφικά αποτελέσματα.
Για παράδειγμα, αν τα ρομπότ διαπράξουν ένα έγκλημα πολέμου, θα κληθεί σε απολογία ο επικεφαλής αξιωματικός που παρακολουθεί τη σύγκρουση ή ο ανώτερος του που αποφάσισε την εμπλοκή των μηχανών σε πρώτη φάση; Μήπως τελικά αυτός που πρέπει να καθίσει στο εδώλιο είναι αυτός που τις κατασκεύασε;
Όλα αυτά «αντιπροσωπεύουν ένα μεγάλο κενό στην πολιτική συζήτηση για το θέμα», συμπληρώνουν οι ερευνητές Βίντσεντ Μπουλάνιν και Μάρτα Μπο του Διεθνούς Ερευνητικού Ινστιτούτου για την Ειρήνη της Στοκχόλμης (SIRPI).
Για τους ίδιους αυτό που χρειάζεται είναι «η συγκεκριμενοποίηση ποιου ακριβώς όπλου ή σεναρίου μπορεί να αποδειχτεί προβληματικό».
Με απλά λόγια πρέπει να καταρτιστούν δύο διαφορετικές σειρές κανονισμών βάσει των οποίων κάποια θα καταργηθούν και άλλα θα χρησιμοποιηθούν αρκεί να καλύπτουν συγκεκριμένα στάνταρντ στη χρήση τους.
Ανθρώπινη αξιοπρέπεια
«Η ερώτηση του ενός εκατομμυρίου δολαρίων είναι ποια από αυτά μπορούν να χωρέσουν και στα δύο καλάθια».
Σε κάθε περίπτωση, για τον Γουέλς, που προσπερνά αν οι κανονισμοί πρέπει να είναι πολιτικοί ή νομικοί και την έλλειψη εμπιστοσύνης ανάμεσα στα διάφορα κράτη, το βασικότερο όλων των προβλημάτων είναι ότι τις κρίσιμες αποφάσεις στα πεδία των μαχών θα λαμβάνουν οι μηχανές που υπολείπονται ανθρώπινης ενσυναίσθησης.
«Είναι ασέβεια προς την ανθρώπινη αξιοπρέπεια», καταλήγει ο ίδιος.
Latest News
Σε κίνδυνο το 40% των θέσεων εργασίας από την ΑΙ - Τι δείχνει έρευνα του ΔΝΤ
Τα οφέλη από τη χρήση της AI είναι ζητούμενο αν θα διαχυθούν σε όλη την οικονομία ή θα τροφοδοτήσουν την κοινωνική και οικονομική ανισότητα
Πώς η Ελλάδα γίνεται κόμβος δεδομένων- Από τον Φάρο και τον Δαίδαλο μέχρι τα data centers
Η τεχνητή νοημοσύνη και η ανάγκη της για δεδομένα «φέρνει» και ένα κύμα επενδύσεων, από τα data centers και τα καλώδια οπτικών ινών μέχρι τον «Φάρο» και τον «Δαίδαλο»
Ήταν ο Χένρι Κίσινγκερ ένας «doomer» της τεχνητής νοημοσύνης;
Τα τελευταία χρόνια της ζωής του ο Χένρι Κίσινγκερ μετατράπηκε σε εμπειρογνώμονα στην AI - Ένα μεταθανάτιο υστερόγραφο σε ένα θέμα που προκαλεί τριγμούς, σημειώνει ο Economist
Θεοδωρόπουλος για AI: Αυτές είναι οι 4 ανησυχίες των επιχειρήσεων
Ο πρόεδρος του ΣΕΒ, Σπύρος Θεοδωρόπουλος, μίλησε στο AI Connect της Google για τις ανησυχίες των ελληνικών επιχειρήσεων γύρω από τη χρήση της AI
Πόση τεχνητή νοημοσύνη χρησιμοποιούν οι Έλληνες - Τι δείχνει έρευνα της Focus Bari
Στην έρευνα της Focus Bari αναλύονται οι ευκαιρίες, οι κίνδυνοι αλλά και οι μεγάλες προσδοκίες
«Η ανάπτυξη της τεχνητής νοημοσύνης επιτέλους επιβραδύνεται» - Τι προβλέπει τώρα ο CEO της Google
Θα χρειαστεί χρόνος για μια άλλη τεχνολογική ανακάλυψη για να θέσει ξανά την ΑΙ σε εξαιρετικά γρήγορη αναπυτξιακή ταχύτητα, προβλέπει ο CEO της Google Σουντάρ Πιτσάι
Πρώτα βήματα εισαγωγής της Τεχνητής Νοημοσύνης στις σχολικές αίθουσες
Το Αi4edu είναι το πρόγραμμα για την τεχνητή νοημοσύνη που αναπτύσσουν έξι οργανισμοί, από τέσσερα κράτη-μέλη της Ευρωπαϊκής Ένωσης
Η AI «επηρέασε» πωλήσεις 60 δισ. δολαρίων κατά την φετινή Cyber Week
Ρεκόρ πωλήσεων ύψους 314,9 δισ. δολαρίων παγκοσμίως καταγράφηκαν τη φετινή Cyber Week - Το 70% των διαδικτυακών αγορών παγκοσμίως πραγματοποιήθηκε μέσω φορητών συσκευών
Ξηροκώστας (SAP): Τεκτονικές οι αλλαγές που φέρνει στην αγορά η AI
Ο CEO της SAP Hellas, Ανδρέας Ξηροκώστας, στο περιθώριο του ετήσιου «SAP Innovation Day 2024» επισήμανε επίσης «το μεγάλο πρόβλημα της έλλειψης ανθρώπινων πόρων» ειδικά στον κλάδο της τεχνολογίας
Μεγάλο deal στους ημιαγωγούς ΑΙ μεταξύ TSMC - Nvidia για το εργοστάσιο της Αριζόνα
Τι συζητούν TSMC - Nvidia για τους ημιαγωγούς Blackwell και το νέο εργοστάσιο του ταϊβανέζικου τεχνολογικού κολοσσού στην Αριζόνα