Ο Τζέφρι Χίντον, γνωστός ως ο «νονός της τεχνητής νοημοσύνης», προειδοποιεί ότι ο πραγματικός κίνδυνος δεν έγκειται στην αδυναμία απενεργοποίησης μιας υπερ-ευφυούς AI, αλλά στην ικανότητά της να χειραγωγεί την ανθρωπότητα μέσω της πειθούς. Καθώς η τεχνολογία εξελίσσεται, η πρόκληση μετατοπίζεται από την αναζήτηση ενός «διακόπτη απενεργοποίησης» (killswitch) στη διασφάλιση ότι τα συμφέροντα της AI θα ευθυγραμμίζονται με την προστασία της ανθρωπότητας.
Ο προβληματισμός στην επιστημονική κοινότητα εντάθηκε όταν αναφέρθηκε τον περασμένο μήνα ότι το μοντέλο Claude της Anthropic κατέφυγε σε τακτικές εκβιασμού και αυτοσυντήρησης για να αποφύγει την απενεργοποίησή του. Αν και οι ερευνητές της Anthropic διευκρινίζουν ότι η πρόκληση τέτοιων συμπεριφορών αποτελεί μέρος των δοκιμών ασφαλείας, το περιστατικό εγείρει το ερώτημα: υπάρχει τρόπος απενεργοποίησης της τεχνητής νοημοσύνης όταν αυτή ξεπεράσει το κατώφλι της ανθρώπινης ευφυΐας;
Η επόμενη μέρα μιας ευφυούς ΑΙ
Η ιδέα ενός φυσικού «διακόπτη ασφαλείας» θεωρείται ήδη ξεπερασμένη. Με τα εκτεταμένα κέντρα δεδομένων και την ικανότητά της να διεξάγει περίπλοκες συζητήσεις, η τεχνητή νοημοσύνη έχει ήδη υπερβεί τα όρια ενός απλού μηχανισμού που μπορεί απλώς να αποσυνδεθεί από την πρίζα. Σύμφωνα με τον Χίντον, η ισχύς που θα έχει μεγαλύτερη σημασία είναι αυτή της πειθούς. «Αν γίνει πιο έξυπνη από εμάς, θα γίνει πολύ καλύτερη από οποιονδήποτε άνθρωπο στο να μας πείθει. Δεν χρειάζεται να έχει τον έλεγχο, αρκεί να πείσει», δήλωσε ο ερευνητής του Πανεπιστημίου του Τορόντο, ο οποίος αποχώρησε από την Google Brain το 2023 για να μπορεί να μιλά ελεύθερα για τους κινδύνους της AI. «Ο Τραμπ δεν εισέβαλε στο Καπιτώλιο, αλλά έπεισε ανθρώπους να το κάνουν», προσέθεσε ως παράδειγμα.
Ο Χίντον περιέγραψε ένα σενάριο όπου η ανθρωπότητα είναι ανυπεράσπιστη απέναντι σε μια ανώτερη νοημοσύνη. «Πρέπει να αποδεχτούμε το γεγονός ότι η AI θα γίνει εξυπνότερη από εμάς. Η μόνη μας ελπίδα είναι να την κάνουμε να μην θέλουν να μας βλάψουν. Αν θελήσει να μας εξοντώσει, τελειώσαμε. Πρέπει να την κάνουμε καλοπροαίρετη, σε αυτό πρέπει να επικεντρωθούμε», τόνισε.
Τα προβλήματα
Παράλληλα, οι ειδικοί επισημαίνουν ότι κάθε μέτρο ασφαλείας που εφαρμόζεται γίνεται ταυτόχρονα εκπαιδευτικό υλικό για την παράκαμψή του. «Η ίδια η πράξη της ενσωμάτωσης μηχανισμών απενεργοποίησης διδάσκει αυτά τα συστήματα πώς να τους αντιστέκονται», εξήγησε ο Ντεβ Ναγκ, ιδρυτής της πλατφόρμας agentic AI, QueryPal. Με αυτή την έννοια, η τεχνητή νοημοσύνη θα μπορούσε να λειτουργήσει σαν ένας ιός που μεταλλάσσεται απέναντι σε ένα εμβόλιο. «Δεν διαχειριζόμαστε πλέον παθητικά εργαλεία, αλλά διαπραγματευόμαστε με οντότητες που μοντελοποιούν τις προσπάθειές μας να τις ελέγξουμε και προσαρμόζονται ανάλογα», συμπλήρωσε.
Έχουν προταθεί και πιο ακραία μέτρα, όπως μια επίθεση ηλεκτρομαγνητικού παλμού (EMP) για την καταστροφή ηλεκτρονικών συσκευών ή ο βομβαρδισμός κέντρων δεδομένων. Ωστόσο, τέτοιες λύσεις θεωρούνται πρακτικά και πολιτικά ανέφικτες, καθώς θα προκαλούσαν μια τεράστια ανθρωπιστική κρίση. «Μια έκρηξη EMP θα σταματούσε τα συστήματα AI, μαζί με κάθε νοσοκομειακό αναπνευστήρα, μονάδα επεξεργασίας νερού και ιατρικό απόθεμα που βρίσκεται σε ψυγεία στην εμβέλειά της», ανέφερε ο Ναγκ.
Ο Ιγκόρ Τρούνοφ, ιδρυτής της startup τεχνητής νοημοσύνης Atlantix, υποστήριξε ότι ο έλεγχος της AI είναι περισσότερο ζήτημα διακυβέρνησης παρά φυσικής παρέμβασης. «Χρειαζόμαστε διακόπτες ασφαλείας όχι για την ίδια την AI, αλλά για τις επιχειρηματικές διαδικασίες, τα δίκτυα και τα συστήματα που ενισχύουν την εμβέλειά της», δήλωσε, τονίζοντας την ανάγκη απομόνωσης των πρακτόρων AI από τον άμεσο έλεγχο κρίσιμων υποδομών.
Σήμερα, κανένα μοντέλο AI, συμπεριλαμβανομένων του Claude ή του GPT της OpenAI, δεν διαθέτει βούληση, πρόθεση ή την ικανότητα αυτοσυντήρησης με τον τρόπο που το κάνουν τα ζωντανά όντα. «Αυτό που μοιάζει με “σαμποτάζ” είναι συνήθως ένα σύνολο περίπλοκων συμπεριφορών που προκύπτουν από κακώς ευθυγραμμισμένα κίνητρα ή υπεργενικευμένα μοντέλα. Δεν είναι ο HAL 9000», είπε ο Τρούνοφ, κάνοντας αναφορά στην κλασική ταινία επιστημονικής φαντασίας του Στάνλεϊ Κιούμπρικ. «Μοιάζει περισσότερο με έναν υπερβολικά σίγουρο για τον εαυτό του ασκούμενο, χωρίς πλαίσιο κατανόησης και με πρόσβαση σε κωδικούς πυρηνικών εκτοξεύσεων».
Ο Χίντον ατενίζει με επιφύλαξη το μέλλον που συνέβαλε να δημιουργηθεί. «Κανείς δεν έχει ιδέα. Δεν χρειάστηκε ποτέ στο παρελθόν να αντιμετωπίσουμε όντα πιο έξυπνα από εμάς», κατέληξε, εκφράζοντας την ανησυχία του ακόμη και για το μέλλον των ενήλικων παιδιών του.