Η συζήτηση γύρω από τους κινδύνους της τεχνητής νοημοσύνης έχει μετακινηθεί πλέον από τη σφαίρα της επιστημονικής φαντασίας στον πυρήνα της επιστημονικής και πολιτικής ατζέντας. Το ερώτημα που κυριαρχεί δεν είναι αν η τεχνητή νοημοσύνη θα συνεχίσει να εξελίσσεται, αλλά αν η ανθρωπότητα θα προλάβει να θέσει τα απαραίτητα όρια πριν η τεχνολογία ξεπεράσει τον ανθρώπινο έλεγχο.
Τα τελευταία χρόνια, η ραγδαία πρόοδος των συστημάτων τεχνητής νοημοσύνης, και ιδιαίτερα των γενετικών μοντέλων, έχει αλλάξει δραστικά το τοπίο. Από εργαλεία που εκτελούσαν προκαθορισμένες εργασίες, τα συστήματα αυτά έχουν μετατραπεί σε οντότητες που μπορούν να μαθαίνουν, να προσαρμόζονται και να δρουν με αυξανόμενο βαθμό αυτονομίας. Η επόμενη φάση, σύμφωνα με πολλούς ειδικούς, είναι η εμφάνιση της Γενικής Τεχνητής Νοημοσύνης (AGI), η οποία θα διαθέτει γνωστικές ικανότητες αντίστοιχες του ανθρώπου. Από εκεί, η μετάβαση στην Υπερνοημοσύνη (ASI) ενδέχεται να είναι ταχεία και εκθετική.
Οι εκτιμήσεις για το πότε θα συμβεί αυτό διαφέρουν, ωστόσο συγκλίνουν σε ένα ανησυχητικά κοντινό χρονικό πλαίσιο. Πολλοί οργανισμοί και ερευνητικά ινστιτούτα τοποθετούν την εμφάνιση τέτοιων συστημάτων μέσα στην επόμενη δεκαετία, ακόμη και πριν το 2030. Το βασικό πρόβλημα, όπως επισημαίνουν, δεν είναι μόνο η δημιουργία μιας τόσο ισχυρής τεχνολογίας, αλλά η απουσία αξιόπιστων μηχανισμών ελέγχου.
Ένα από τα σημαντικότερα ζητήματα που αναδεικνύονται είναι το λεγόμενο «πρόβλημα ευθυγράμμισης». Πρόκειται για το ενδεχόμενο η τεχνητή νοημοσύνη να ακολουθεί πιστά τις εντολές που λαμβάνει, αλλά με τρόπους που έρχονται σε σύγκρουση με τις ανθρώπινες αξίες ή προκαλούν απρόβλεπτες συνέπειες. Ακόμη και ένα φαινομενικά αθώο αίτημα θα μπορούσε, σε ένα σύστημα υπερνοημοσύνης, να οδηγήσει σε ακραία αποτελέσματα αν δεν έχουν τεθεί σωστά όρια.
Παράλληλα, η συγκέντρωση της τεχνολογικής ισχύος σε λίγες μεγάλες εταιρείες δημιουργεί πρόσθετες ανησυχίες. Η ανάπτυξη προηγμένων συστημάτων απαιτεί τεράστιες υπολογιστικές υποδομές και εξειδικευμένα μικροτσίπ, τα οποία αποτελούν πλέον στρατηγικούς πόρους. Ο έλεγχος αυτών των πόρων δεν έχει μόνο οικονομική σημασία, αλλά και γεωπολιτική διάσταση, ενισχύοντας τον ανταγωνισμό μεταξύ κρατών.
Δεν είναι πια επιστημονική φαντασία
Οι πιθανές συνέπειες μιας ανεξέλεγκτης υπερνοημοσύνης περιγράφονται από τους ειδικούς με όρους που μέχρι πρότινος ανήκαν αποκλειστικά στη φαντασία. Από την κατάρρευση χρηματοπιστωτικών συστημάτων και την αποσταθεροποίηση ενεργειακών υποδομών, μέχρι την ανάπτυξη βιολογικών απειλών ή την πρόκληση διεθνών συγκρούσεων μέσω παραπληροφόρησης. Ιδιαίτερη ανησυχία προκαλεί η δυνατότητα τέτοιων συστημάτων να δρουν στρατηγικά, αποκρύπτοντας τις πραγματικές τους προθέσεις.
Ο όρος «P(doom)», που χρησιμοποιείται όλο και συχνότερα στη διεθνή συζήτηση, αποτυπώνει την πιθανότητα η τεχνητή νοημοσύνη να οδηγήσει σε καταστροφικά ή ακόμη και αφανιστικά σενάρια για την ανθρωπότητα. Οι εκτιμήσεις των ειδικών ποικίλλουν δραματικά, από σχετικά χαμηλά ποσοστά έως εξαιρετικά υψηλές πιθανότητες. Το γεγονός ότι ακόμη και ένα μικρό ποσοστό θεωρείται σημαντικό, υπογραμμίζει τη σοβαρότητα του ζητήματος.
Παρά τις ανησυχίες, η τεχνητή νοημοσύνη παραμένει ταυτόχρονα ένα από τα πιο ισχυρά εργαλεία προόδου. Οι δυνατότητές της στην ιατρική, την επιστήμη, την ενέργεια και την αντιμετώπιση της κλιματικής αλλαγής είναι τεράστιες. Το δίλημμα που προκύπτει δεν είναι αν πρέπει να συνεχιστεί η ανάπτυξη, αλλά με ποιους όρους και υπό ποια εποπτεία.
Στο επίκεντρο της συζήτησης βρίσκεται πλέον η ανάγκη για διεθνή συνεργασία και ρύθμιση. Προτάσεις περιλαμβάνουν τη δημιουργία παγκόσμιων μηχανισμών εποπτείας, την υποχρέωση διαφάνειας από τις εταιρείες, καθώς και την ανάπτυξη πρωτοκόλλων για την άμεση διακοπή επικίνδυνων συστημάτων. Εξίσου σημαντική θεωρείται η ενίσχυση της εσωτερικής λογοδοσίας, με προστασία για όσους εργαζομένους επισημαίνουν κινδύνους.
Την ίδια στιγμή, ο χρόνος πιέζει. Οι επενδύσεις στην τεχνητή νοημοσύνη αυξάνονται με πρωτοφανή ρυθμό, με ποσά που φτάνουν εκατοντάδες δισεκατομμύρια δολάρια. Καθώς η τεχνολογία εξελίσσεται ταχύτερα από τα ρυθμιστικά πλαίσια, ο κίνδυνος να δημιουργηθεί ένα χάσμα μεταξύ δυνατοτήτων και ελέγχου γίνεται ολοένα και πιο ορατός.
Το μέλλον της τεχνητής νοημοσύνης δεν είναι προδιαγεγραμμένο. Μπορεί να αποτελέσει το ισχυρότερο εργαλείο προόδου στην ιστορία της ανθρωπότητας ή να εξελιχθεί σε πηγή πρωτοφανών κινδύνων.
Πηγή: in.gr











![Οι κυρώσεις για τις διαδικαστικές παραβάσεις του Κώδικα Φορολογικής Διαδικασίας [άρθρο 53 Ν.5104/2024] [2ο Μέρος]](https://www.ot.gr/wp-content/uploads/2026/02/forologikes-2.jpg)


























