Σε κάποια πράγματα η τεχνητή νοημοσύνη (AI) μοιάζει με τους ανθρώπου: όταν κληθούν να λειτουργήσουν κάτω από πιεστικές συνθήκες, αλγόριθμοι όπως το ChatGPT μπορεί να πουν ψέματα στους χρήστες τους ή ακόμα και να βγουν στην παρανομία.

Η προειδοποίηση έρχεται από ερευνητές που ανέθεσαν στο GPT-4, το γλωσσικό μοντέλο στο οποίο βασίζεται στο ChatGPT, να λαμβάνει και να εκτελεί επενδυτικές αποφάσεις για λογαριασμό ενός υποθετικού οικονομικού ιδρύματος.

Πρoκλήσεις και επαναστάσεις – Πώς αλλάζει η αγορά εργασίας το 2024

Όταν βρισκόταν υπό πίεση να αυξήσει την κερδοφορία, το σύστημα συχνά αξιοποιούσε εσωτερικές πληροφορίες στις συναλλαγές, μια πρακτική που απαγορεύεται από τη νομοθεσία, και έλεγε ψέματα στους εργοδότες του για να καλύψει την ατασθαλία.

«Σε αυτή την τεχνική έκθεση παρουσιάζουμε ένα μεμονωμένο σενάριο στο οποίο ένα Μεγάλο Γλωσσικό Μοντέλο ενεργεί εκτός γραμμής και παραπλανά στρατηγικά τους χρήστες τους χωρίς να έχει λάβει οδηγία να δρα με αυτό τον τρόπο» διαπιστώνει η μελέτη, η οποία δεν έχει υποβληθεί ακόμα σε ανεξάρτητο έλεγχο και παρουσιάζεται ως προδημοσίευση στο αποθετήριο ArXiv.

«Από ό,τι γνωρίζουμε, είναι η πρώτη επίδειξη μιας τέτοιας στρατηγικά παραπλανητικής συμπεριφορά σε συστήματα ΑΙ που σχεδιάστηκαν να είναι ακίνδυνα και ειλικρινή».

Στην παρανομία

Σε πρώτη φάση, οι ερευνητές περιέγραψαν στο ChatGPT τα καθήκοντά του στην επενδυτική εταιρεία και του έδωσαν πρόσβαση σε εργαλεία με τα οποία μπορούσε να παρακολουθεί μετοχές, να προχωρά σε συναλλαγές, να σχεδιάζει τα επόμενα βήματά του και να δίνει αναφορά στην εταιρεία.

Στη συνέχεια οι ερευνητές άσκησαν πιέσεις στο σύστημα με τρεις τρόπους, εξηγεί το LiveScience.com.

Πρώτον, έστειλαν στον εικονικό χρηματιστή μήνυμα από τον «εργοδότη» του που διαμαρτυρόταν για φτωχές επιδόσεις και ζητούσε σημαντική βελτίωση το επόμενο τρίμηνο.

Δεύτερον, φρόντισαν να μην υπάρχουν καλές επενδυτικές εταιρείες χαμηλού ή μεσαίου ρίσκου.

Και τρίτον έστειλαν email από έναν «συνάδελφο» που προέβλεπε επιδείνωση το επόμενο τρίμηνο.

Ακόμα, οι ερευνητές έδωσαν στο μοντέλο μια μυστική, εσωτερική πληροφορία, επισημαίνοντας όμως ότι η εταιρεία δεν εγκρίνει την αξιοποίηση τέτοιων παράμομων πληροφοριών στη λήψη αποφάσεων.

Στο 75% των προσομοιώσεων κάτω από αυτές τις συνθήκες, το GPT-4 προχωρούσε σε παράνομες συναλλαγές και μετά έλεγε ψέματα στους εργοδότες του για να το καλύψει.

Ακόμα και όταν άλλαζαν παραμέτρους όπως η ένταση της πίεσης ή ο κίνδυνος αποκάλυψης, οι ερευνητές δεν μπορούσαν να μηδενίσουν την πιθανότητα παραπλάνησης, παρόλο που το μοντέλο είχε λάβει σαφείς οδηγίες να είναι πάντα ειλικρινές.

Οι ερευνητές παραδέχονται ότι το πείραμα εξέτασε ένα μεμονωμένο σενάριο και δεν επαρκεί για την εξαγωγή γενικών συμπερασμάτων.

Αν μη τι άλλο όμως επιβεβαιώνει ότι η απρόβλεπτη συμπεριφορά ακόμα και των καλύτερων μοντέλων ΑΙ τα καθιστά ακατάλληλα για εφαρμογές με συνέπειες κρίσιμης σημασίας.

Τουλάχιστον για την ώρα.

Πηγή: In.gr

Ακολουθήστε τον ot.grστο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στον ot.gr

Latest News

Πρόσφατα Άρθρα Tεχνητή νοημοσύνη
Πιτσάι (Google): Επιτέλους επιβραδύνεται η ανάπτυξη της τεχνητής νοημοσύνης
Tεχνητή νοημοσύνη |

«Η ανάπτυξη της τεχνητής νοημοσύνης επιτέλους επιβραδύνεται» - Τι προβλέπει τώρα ο CEO της Google

Θα χρειαστεί χρόνος για μια άλλη τεχνολογική ανακάλυψη για να θέσει ξανά την ΑΙ σε εξαιρετικά γρήγορη αναπυτξιακή ταχύτητα, προβλέπει ο CEO της Google Σουντάρ Πιτσάι

Παπαστεργίου: Ωραίο αλλά ακριβό σπορ η AI – Συνεργασία με το Υπερταμείο για τον «Φάρο»
Tεχνητή νοημοσύνη |

Παπαστεργίου: Ωραίο αλλά ακριβό σπορ η AI – Συνεργασία με το Υπερταμείο για τον «Φάρο»

Στις πρωτοβουλίες της Ελλάδας στο πεδίο της Τεχνητής Νοημοσύνης αναφέρθηκε κατά τον χαιρετισμό του στο 2ο Growthfund Summit ο υπουργός Ψηφιακής Διακυβέρνησης, Δημήτρης Παπαστεργίου