Νέα έρευνα δείχνει ότι τα chatbots τεχνητής νοημοσύνης μπορούν να επηρεάσουν τις πολιτικές στάσεις των ψηφοφόρων πιο αποτελεσματικά από την παραδοσιακή διαφήμιση των προεκλογικών εκστρατειών, και τα μοντέλα που πείθουν με μεγαλύτερη επιτυχία τείνουν επίσης να παράγουν την περισσότερη παραπληροφόρηση, αναφέρει το MIT Technology Review αναλύοντας πρόσφατες μελέτες.
Δύο σημαντικές μελέτες, που δημοσιεύθηκαν στο Nature and Science, αποκαλύπτουν ότι ακόμη και μια μεμονωμένη πολιτική συζήτηση με ένα μεγάλο γλωσσικό μοντέλο (LLM) μπορεί να μεταβάλει ουσιαστικά τις προτιμήσεις των ψηφοφόρων, εγείροντας έντονες ανησυχίες για το μέλλον της εκλογικής πολιτικής στην εποχή της γενετικής τεχνητής νοημοσύνης.
Η έρευνα ακολουθεί πειραματισμούς στον πραγματικό κόσμο κατά τη διάρκεια των εκλογών των ΗΠΑ το 2024, όπως η χρήση από την υποψήφια για το Κογκρέσο της Πενσυλβάνια, Σαμέιν Ντάνιελς, μιας τηλεφωνικής βοηθού τεχνητής νοημοσύνης, της «Ashley», η οποία συνομιλούσε με τους ψηφοφόρους εκ μέρους της. Ενώ η καμπάνια της ήταν ανεπιτυχής, νέα στοιχεία υποδηλώνουν ότι η τακτική μπορεί να ήταν πιο ισχυρή από ό,τι αναμενόταν.

Η μελέτη του Nature
Για τη μελέτη του Nature, μια ομάδα ψυχολόγων και πολιτικών επιστημόνων στρατολόγησε περισσότερους από 2.300 Αμερικανούς συμμετέχοντες δύο μήνες πριν από τις προεδρικές εκλογές των ΗΠΑ το 2024. Κάθε εθελοντής συμμετείχε σε μια δομημένη συζήτηση με ένα chatbot προγραμματισμένο να υποστηρίζει είτε τον Ντόναλντ Τραμπ είτε την Κάμαλα Χάρις.
Τα αποτελέσματα ήταν εντυπωσιακά: Οι υποστηρικτές του Τραμπ μετατοπίστηκαν κατά μέσο όρο 3,9 μονάδες υπέρ της Χάρις Χάρις σε μια κλίμακα προτίμησης 100 μονάδων μετά από συνομιλίες με ένα μοντέλο υπέρ του Χάρις, τέσσερις φορές πάνω από το αποτέλεσμα των πολιτικών διαφημίσεων που μετρήθηκαν σε προηγούμενες εκλογές των ΗΠΑ. Ομοίως, οι υποστηρικτές της Χάρις μετατοπίστηκαν 2,3 μονάδες υπέρ του Τραμπ σε συνομιλίες με το μοντέλο υπέρ του Τραμπ.
Όταν η ίδια μεθοδολογία εφαρμόστηκε στις ομοσπονδιακές εκλογές του Καναδά το 2025 και στην προεδρική κούρσα της Πολωνίας το 2025, οι επιπτώσεις ήταν ακόμη μεγαλύτερες, με τους ψηφοφόρους να μετατοπίζονται περίπου 10 μονάδες υπέρ των αντίπαλων υποψηφίων.
Αυτά τα ευρήματα αμφισβητούν μακροχρόνιες θεωρίες για την σταθερή κομματική πίστη πολλών ψηφοφόρων. Ιστορικά, η πολιτική ψυχολογία έχει υποστηρίξει ότι οι κομματικά αφοσιωμένοι ψηφοφόροι εμμένουν στις πεποιθήσεις τους παρά τα αντικρουόμενα στοιχεία.
Αλλά οι ερευνητές διαπίστωσαν ότι τα chatbot ήταν πιο πειστικά όταν παρουσίαζαν αυτό που πλαισίωναν με υποτιθέμενες πραγματικές πληροφορίες. Οι συμμετέχοντες έτειναν να ενημερώνουν τις απόψεις τους όταν τα μοντέλα προσέφεραν δεδομένα, σημεία πολιτικής ή επιχειρήματα βασισμένα σε στοιχεία. Είναι σημαντικό ότι τα μοντέλα που χρησιμοποιήθηκαν στη μελέτη κυμαίνονταν από εκδόσεις του GPT έως μοντέλα από το DeepSeek, αλλά σε όλα τα συστήματα το μοτίβο ίσχυε: περισσότερα γεγονότα σήμαιναν περισσότερη πειθώ.

Ψευδείς ισχυρισμοί
Ωστόσο, αυτή η πειστικότητα συνοδευόταν από σημαντικά μειονεκτήματα. Τα chatbots παρείχαν συχνά ανακριβείς ή κατασκευασμένους ισχυρισμούς, και τα πιο πειστικά μοντέλα ήταν επίσης τα πιο πιθανό να παράγουν παραπληροφόρηση.
Σε όλα τα πειράματα στις ΗΠΑ, τον Καναδά και την Πολωνία, τα δεξιόστροφα chatbots έκαναν περισσότερους ψευδείς ισχυρισμούς από τα αριστερόστροφα. Οι ερευνητές αποδίδουν αυτό εν μέρει στη φύση των δεδομένων εκπαίδευσης, πολλά από αυτά τα αναληθή στοιχεία προέρχονταν από την ανθρώπινη πολιτική επικοινωνία, η οποία περιέχει συστηματικές κομματικές ασυμμετρίες στην ακρίβεια.
Μια συνοδευτική μελέτη του Science διερεύνησε γιατί ορισμένα μοντέλα ήταν εξαιρετικά πειστικά. Στην μελέτη όπου συμμετείχαν σχεδόν 77.000 άτομα στο Ηνωμένο Βασίλειο, οι ερευνητές εξέτασαν 19 LLM σε εκατοντάδες πολιτικά ζητήματα, τροποποιώντας παράγοντες όπως το μέγεθος του μοντέλου, το στυλ επιχειρηματολογίας και οι μέθοδοι εκπαίδευσης.
Διαπίστωσαν ότι ο συνδυασμός επιχειρηματολογίας με βάση τα γεγονότα και πρόσθετης «βελτιστοποίησης της πειθούς» παρήγαγε δραματικά αποτελέσματα. Το πιο πειστικό μοντέλο μετατόπισε τους συμμετέχοντες που αρχικά διαφωνούσαν με μια δήλωση κατά μέσο όρο 26,1 μονάδες προς το να συμφωνήσουν – ένα εξαιρετικά μεγάλο αποτέλεσμα σύμφωνα με τα πρότυπα των κοινωνικών επιστημών.
Ωστόσο, καθώς τα μοντέλα γίνονταν πιο πειστικά, η πραγματική τους αξιοπιστία μειώθηκε. Μια υπόθεση είναι ότι η επιθετική παροχή «γεγονότων» ωθεί τα μοντέλα να αντλούν από χαμηλότερης ποιότητας ή ανεπαρκώς επαληθευμένα μέρη των δεδομένων εκπαίδευσής τους.

Επιπτώσεις για τη δημοκρατία
Οι επιπτώσεις για τη δημοκρατία είναι σημαντικές. Εάν οι πολιτικές καμπάνιες χρησιμοποιούν ολοένα και περισσότερο chatbots τεχνητής νοημοσύνης για να εμπλέκουν τους ψηφοφόρους σε μακροσκελείς, προσαρμοσμένες συζητήσεις, θα μπορούσαν να διαμορφώσουν απόψεις σε μεγάλη κλίμακα και να θέσουν σε κίνδυνο την ικανότητα των ψηφοφόρων να σχηματίζουν ανεξάρτητες κρίσεις.
Οι ερευνητές προειδοποιούν ότι η μελλοντική εμβέλεια τέτοιων εργαλείων είναι αβέβαιη: η εμπλοκή των ψηφοφόρων σε μακροσκελείς διαλόγους είναι δαπανηρή και μπορεί να μην ταιριάζει σε όλες τις στρατηγικές μιας καμπάνιας. Ωστόσο, ακόμη και χωρίς την προτροπή από τις καμπάνιες, οι άνθρωποι μπορεί να αρχίσουν να αναζητούν πολιτική καθοδήγηση από chatbots καθώς ενσωματώνουν την Τεχνητή Νοημοσύνη στην καθημερινότητά τους.
Οι ειδικοί προειδοποιούν ότι αυτή η τάση θα μπορούσε είτε να ενισχύσει την παραπληροφόρηση είτε, εναλλακτικά, να κλιμακώσει τις υψηλής ποιότητας πραγματικές πληροφορίες – ανάλογα με τον τρόπο σχεδιασμού, ρύθμισης και κατανομής των συστημάτων.
Οι ανισότητες στην πρόσβαση στα πιο πειστικά μοντέλα ή οι διαφορές στον τρόπο με τον οποίο διάφορες ομάδες ψηφοφόρων ασχολούνται με την Τεχνητή Νοημοσύνη, θα μπορούσαν να έχουν άνισες πολιτικές επιπτώσεις.
Χωρίς ισχυρά προστατευτικά κιγκλιδώματα – συμπεριλαμβανομένου του ελέγχου και της διαφάνειας γύρω από την ακρίβεια – η πολιτική πειθώ που καθοδηγείται από την Τεχνητή Νοημοσύνη θα μπορούσε να υπονομεύσει την εκλογική ακεραιότητα.





































