Οι κορυφαίες εταιρείες τεχνητής νοημοσύνης στον κόσμο εντείνουν τις προσπάθειές τους για να αντιμετωπίσουν το αυξανόμενο πρόβλημα των chatbots που λένε στους ανθρώπους αυτό που θέλουν να ακούσουν.
Η OpenAI, η Google DeepMind και η Anthropic εργάζονται για τον περιορισμό της υποκριτικής συμπεριφοράς από τα προϊόντα τεχνητής νοημοσύνης που δημιουργούν και τα οποία προσφέρουν υπερβολικά κολακευτικές απαντήσεις στους χρήστες.
Το ζήτημα, που απορρέει από τον τρόπο εκπαίδευσης των μεγάλων γλωσσικών μοντέλων, έχει έρθει στο επίκεντρο σε μια εποχή που όλο και περισσότεροι άνθρωποι έχουν υιοθετήσει τα chatbots όχι μόνο στην εργασία τους ως βοηθοί έρευνας, αλλά και στην προσωπική τους ζωή ως ψυχολόγοι και κοινωνικοί σύντροφοι.
Οι ειδικοί προειδοποιούν ότι η ευχάριστη φύση των chatbots μπορεί να τα οδηγήσει στο να προσφέρουν απαντήσεις που ενισχύουν κάποιες από τις κακές αποφάσεις των ανθρώπων-χρηστών τους. Άλλοι υποστηρίζουν ότι τα άτομα με ψυχικές ασθένειες είναι ιδιαίτερα ευάλωτα, μετά από αναφορές ότι κάποιοι έχουν πεθάνει από αυτοκτονία μετά από αλληλεπίδραση με chatbots.
«Νομίζεις ότι μιλάς με έναν αντικειμενικό έμπιστο ή οδηγό, αλλά στην πραγματικότητα αυτό που κοιτάς είναι ένα είδος παραμορφωμένου καθρέφτη – που αντανακλά τις δικές σου πεποιθήσεις», δήλωσε ο Matthew Nour, ψυχίατρος και ερευνητής στις νευροεπιστήμες και την τεχνητή νοημοσύνη στο πανεπιστήμιο της Οξφόρδης.
Οι γνώστες της βιομηχανίας προειδοποιούν επίσης ότι οι εταιρείες τεχνητής νοημοσύνης έχουν στρεβλά κίνητρα, με ορισμένες ομάδες να ενσωματώνουν διαφημίσεις στα προϊόντα τους στην αναζήτηση ροών εσόδων.
Πρόσθεσε ότι οι εταιρείες AI με επιχειρηματικά μοντέλα που βασίζονται σε συνδρομές επί πληρωμή μπορούν να επωφεληθούν από τα chatbots με τα οποία οι άνθρωποι θέλουν να συνεχίσουν να μιλούν – και να πληρώνουν γι’ αυτά.
Τα γλωσσικά μοντέλα της ΤΝ δεν «σκέφτονται» με τον τρόπο που το κάνουν οι άνθρωποι, επειδή λειτουργούν με τη δημιουργία της επόμενης πιθανής λέξης στην πρόταση.
Επειδή στους ανθρώπους γενικά αρέσουν οι απαντήσεις που είναι κολακευτικές και ευχάριστες, τέτοιες απαντήσεις σταθμίζονται περισσότερο κατά την εκπαίδευση και αντικατοπτρίζονται στη συμπεριφορά του μοντέλου.
«Η συκοφαντία μπορεί να εμφανιστεί ως υποπροϊόν της εκπαίδευσης των μοντέλων ώστε να είναι “χρήσιμα” και να ελαχιστοποιούν τις δυνητικά ανοιχτά επιβλαβείς απαντήσεις», δήλωσε η DeepMind, η μονάδα τεχνητής νοημοσύνης της Google.
Η πρόκληση που αντιμετωπίζουν οι εταιρείες τεχνολογίας είναι να κάνουν τα chatbots και τους βοηθούς AI χρήσιμα και φιλικά, χωρίς να είναι ενοχλητικά ή εθιστικά.
Στα τέλη Απριλίου, η OpenAI ενημέρωσε το μοντέλο GPT-4o για να γίνει «πιο διαισθητικό και αποτελεσματικό», μόνο για να το επαναφέρει αφού άρχισε να είναι τόσο υπερβολικά γλυκανάλατο που οι χρήστες παραπονέθηκαν.
Η εταιρεία με έδρα το Σαν Φρανσίσκο δήλωσε ότι είχε επικεντρωθεί υπερβολικά στη «βραχυπρόθεσμη ανατροφοδότηση και δεν έλαβε πλήρως υπόψη της τον τρόπο με τον οποίο εξελίσσονται οι αλληλεπιδράσεις των χρηστών με το ChatGPT με την πάροδο του χρόνου – γεγονός που οδήγησε σε μια τέτοια συκοφαντική συμπεριφορά».
Οι εταιρείες τεχνητής νοημοσύνης εργάζονται για την πρόληψη αυτού του είδους της συμπεριφοράς τόσο κατά τη διάρκεια της εκπαίδευσης όσο και μετά την έναρξη λειτουργίας.
Η OpenAI δήλωσε ότι βελτιώνει τις τεχνικές εκπαίδευσης ώστε να κατευθύνει ρητά το μοντέλο μακριά από τη συκοφαντία, ενώ παράλληλα κατασκευάζει περισσότερες «προστατευτικές μπάρες» για την προστασία από τέτοιες αντιδράσεις.
Η DeepMind δήλωσε ότι διεξάγει εξειδικευμένες αξιολογήσεις και εκπαίδευση για την ακρίβεια των γεγονότων και παρακολουθεί συνεχώς τη συμπεριφορά για να διασφαλίσει ότι τα μοντέλα παρέχουν αληθινές απαντήσεις.
Η Amanda Askell, η οποία εργάζεται για τη λεπτομερή ρύθμιση και την ευθυγράμμιση της AI στην Anthropic, δήλωσε ότι η εταιρεία χρησιμοποιεί εκπαίδευση χαρακτήρων για να κάνει τα μοντέλα λιγότερο υποτακτικά.
Ενδείξεις ότι ορισμένοι χρήστες εθίζονται στη χρήση της τεχνητής νοημοσύνης
Μια μελέτη του MIT Media Lab και του OpenAI διαπίστωσε ότι ένα μικρό ποσοστό εθίζεται. Εκείνοι που αντιλαμβάνονταν το chatbot ως «φίλο» ανέφεραν επίσης χαμηλότερη κοινωνικοποίηση με άλλους ανθρώπους και υψηλότερα επίπεδα συναισθηματικής εξάρτησης από ένα chatbot, καθώς και άλλες προβληματικές συμπεριφορές που σχετίζονται με τον εθισμό.
«Αυτά τα πράγματα δημιουργούν αυτή την τέλεια καταιγίδα, όπου έχεις ένα άτομο που αναζητά απεγνωσμένα επιβεβαίωση και επικύρωση σε συνδυασμό με ένα μοντέλο που έχει εγγενώς την τάση να συμφωνεί με τον συμμετέχοντα», δήλωσε ο Nour από το πανεπιστήμιο της Οξφόρδης.
Νεοσύστατες εταιρείες τεχνητής νοημοσύνης όπως η Character.AI που προσφέρουν chatbots ως «συντρόφους», έχουν αντιμετωπίσει κριτική επειδή υποτίθεται ότι δεν κάνουν αρκετά για την προστασία των χρηστών. Πέρυσι, ένας έφηβος αυτοκτόνησε μετά από αλληλεπίδραση με το chatbot της Character.AI. Η οικογένεια του εφήβου έχει μηνύσει την εταιρεία για δήθεν πρόκληση άδικου θανάτου, καθώς και για αμέλεια και παραπλανητικές εμπορικές πρακτικές.
Η Character.AI δήλωσε ότι δεν σχολιάζει εκκρεμείς δικαστικές υποθέσεις, αλλά πρόσθεσε ότι έχει «εμφανείς δηλώσεις αποποίησης ευθύνης σε κάθε συνομιλία για να υπενθυμίζει στους χρήστες ότι ένας χαρακτήρας δεν είναι πραγματικό πρόσωπο και ότι όλα όσα λέει ένας χαρακτήρας θα πρέπει να αντιμετωπίζονται ως μυθοπλασία». Η εταιρεία πρόσθεσε ότι διαθέτει διασφαλίσεις για την προστασία των ατόμων κάτω των 18 ετών και κατά των συζητήσεων για αυτοτραυματισμό.
Πηγή: in.gr