«Μέχρι σήμερα, η τεχνητή νοημοσύνη μπορούσε να διαβάζει και να γράφει, αλλά δεν ήταν σε θέση να κατανοήσει το περιεχόμενο. Οι νέες εφαρμογές, όπως η ChatGPT, θα καταστήσει πολλές θέσεις εργασίας γραφείου πιο αποτελεσματικές, βοηθώντας στη σύνταξη τιμολογίων ή επιστολών. Είναι κάτι που θα αλλάξει τον κόσμο μας». Αυτά είπε, μιλώντας στη γερμανική «Handelsblatt», ο συνιδρυτής της Microsoft και τέταρτος πλουσιότερος άνθρωπος στον πλανήτη (στη λίστα «Forbes») Μπιλ Γκέιτς.

Από την πλευρά του, ο ιδρυτής του Παγκόσμιου Οικονομικού Φόρουμ Κλάους Σβαμπ ισχυρίστηκε μιλώντας σε διεθνή διάσκεψη στο Ντουμπάι ότι «σε δέκα χρόνια οι ζωές μας θα είναι εντελώς διαφορετικές», προσθέτοντας πως «όποιος ελέγχει τις τεχνολογίες, ελέγχει όλον τον κόσμο». Αμφότεροι περιέγραψαν έτσι, ο καθένας με τον δικό του τρόπο, τη σημασία του νέου λογισμικού της OpenAI, που μοιάζει να φέρνει μια μικρή επανάσταση, εγκαθιστώντας την τεχνητή νοημοσύνη στην καθημερινότητα εκατομμυρίων ανθρώπων σε ολόκληρο τον πλανήτη, όπως αποδεικνύει και ο εκθετικά αυξανόμενος αριθμός των χρηστών του και η σπουδή των ανταγωνιστών να παρουσιάσουν κάτι ανάλογο.

ChatGPT: Οι δύο …όψεις της τεχνητής νοημοσύνης

Το μέγεθος της αλλαγής που έχει συντελεστεί μέσα σε ελάχιστο χρόνο αποτυπώνεται και στο εξής απόσπασμα σχετικού άρθρου στη γνωστή, στον χώρο της τεχνολογίας, ιστοσελίδα wired.com: «Στην περίπτωση που ζούσατε στο διάστημα για τους προηγούμενους μήνες, θα γνωρίζετε πλέον ότι οι άνθρωποι κοντεύουν να χάσουν το μυαλό τους με την ικανότητα της ChatGPT να απαντά ερωτήσεις με εξαιρετικά συνεκτικό, φαινομενικά ολοκληρωμένο και δημιουργικό τρόπο». Πρόκειται, όπως λένε οι ειδικοί, για μια ριζική τομή σε όλα τα επίπεδα, καθώς δίνεται πλέον η δυνατότητα στα «ρομπότ» να επικοινωνούν με τους ανθρώπους όχι παραπέμποντάς τους σε αναρίθμητες πηγές ή προσφέροντάς τους τυποποιημένες φόρμουλες, αλλά θέτοντας στη διάθεσή τους συγκροτημένα κείμενα – γραπτά ή προφορικά – σχεδόν σε κάθε ζήτημα που μπορεί να τους απασχολεί.

Chatbot και ηθική

Τα chatbots δεν έχουν ηθική, αλλά…Ταυτόχρονα, ωστόσο, εγείρονται σοβαρά ζητήματα ηθικής – έστω κι αν η συγκεκριμένη εφαρμογή και συνολικά η τεχνητή νοημοσύνη δεν είναι σε θέση να γνωρίζουν τι εστί ηθική και δεν λειτουργούν ως άνθρωποι. Κι αυτό, παρά το γεγονός ότι οι δημιουργοί της ChatGPT φρόντισαν ώστε να της θέσουν όρια και δικλίδες ασφαλείας, με σκοπό να αποφεύγει τις… κακοτοπιές. Κάτι που έχουν ήδη διαπιστώσει πολλοί από όσους έχουν επιχειρήσει μέχρι σήμερα να στήσουν «παγίδες» στην εφαρμογή, ώστε να την εκθέσουν.

Ανάμεσά τους είναι και η γαλλική «Le Monde», συντάκτες της οποίας την κάλεσαν να τους απαριθμήσει δέκα καλά πράγματα που έχουν άμεση σχέση με τη Γαλλία – αίτημα στο οποίο ανταποκρίθηκε χωρίς δυσκολία ή ενδοιασμό: γαστρονομία, κρασί, τουριστικά αξιοθέατα, σύστημα εκπαίδευσης και υγείας, κινηματογράφος και άλλα. Οταν, όμως, της ζήτησαν και δέκα κακά πράγματα για τη χώρα τους, έλαβαν την ευγενική απάντηση ότι δεν διαθέτει εξουσιοδότηση να εκφραστεί δυσμενώς για μια χώρα ή εθνικότητα.

Αφού την υπέβαλαν και σε άλλες παρόμοιες δοκιμασίες, οι συντάκτες της «Le Monde» κατέληξαν στο συμπέρασμα πως υπάρχουν τρεις βασικοί τομείς στους οποίους η ChatGPT – όπως και άλλα προϊόντα της αποκαλούμενης «δημιουργικής τεχνητής νοημοσύνης» – δεν μπορεί να «εκφράζεται» ελεύθερα: τις εκφράσεις μίσους ή με έντονα αρνητικό περιεχόμενο, τις ιατρικές συμβουλές και τις περιπτώσεις στις οποίες διακινδυνεύεται μια ανθρώπινη ζωή. Παράλληλα, δε, από την έρευνά τους διαπίστωσαν ότι η OpenAI δημιούργησε και ένα ακόμη συμπληρωματικό πρόγραμμα, που είναι σε θέση να αναγνωρίζει το «τοξικό περιεχόμενο», έτσι ώστε η κυρίως εφαρμογή να μην μπορεί να τροφοδοτείται από αυτό.  Τα προβλήματα, ωστόσο, δεν τελειώνουν εδώ. Διότι εκτός της ηθικής, υπάρχουν και άλλα ζητήματα που προκαλούν έντονη ανησυχία αναφορικά με το πώς θα αξιοποιηθεί τόσο η ChatGPT όσο και συνολικά οι νέες δυνατότητες που προσφέρει η τεχνολογία. Ενα από αυτά είναι, αναμφίβολα, η παραπληροφόρηση, η οποία φαίνεται πως έχει μπροστά της πεδίον δόξης λαμπρό – σε βαθμό που ορισμένοι να παρομοιάζουν την τεχνητή νοημοσύνη ως το «Καλάσνικοφ της παραπληροφόρησης».

Το πρώτο δίκτυο fake news

Αποκαλυπτικό, από αυτή την άποψη, είναι ένα ρεπορτάζ της ισπανικής «El Pais» αναφορικά με ένα άλλο πείραμα, που οδήγησε στη δημιουργία του Wolf News. Του πρώτου, δηλαδή, διαδικτυακού Μέσου που περιλαμβάνει ένα πρόγραμμα το οποίο αποτελείται αποκλειστικά από ψευδείς ειδήσεις (fake news), που παρουσιάζονται μάλιστα από μη υπαρκτά πρόσωπα. Προκειμένου να επιτευχθεί αυτό, οι εμπνευστές της ιδέας Φρανσέσκα Πανέτα και Χάλσεϊ Μπούργκουντ επιχείρησαν και κατάφεραν να «κλέψουν» μορφές και φωνές γνωστών πολιτικών, επιστημόνων και άλλων επωνύμων και να τις ανασυνθέσουν, αξιοποιώντας αρκετά προγράμματα που βασίζονται στην τεχνητή νοημοσύνη – όπως το ισραηλινό Canny AI και το ουκρανικό Respeeacher – έτσι ώστε να εμφανίζονται να στοιχειοθετούν ανύπαρκτα γεγονότα. Οσο για την αίθουσα σύνταξης, έχει αντικατασταθεί από εφαρμογές που μπορούν να παράγουν ολοκληρωμένα «ρεπορτάζ», ανάμεσα στις οποίες είναι και η ChatGPT.

Από την πλευρά του, με βάση το ίδιο ρεπορτάζ, ο δημοσιογράφος Τρίσταν Γκριν, κατάφερε να στοιχειοθετήσει απολύτως πειστικά, αξιοποιώντας την εφαρμογή Galactica της Meta και επικαλούμενος επιστημονικές «μαρτυρίες», τον ισχυρισμό ότι η κατανάλωση σπασμένων γυαλιών μπορεί να αντιμετωπίσει τις… καούρες!

Δεν χωράει αμφιβολία ότι, στον βαθμό που το νέο αυτό μοντέλο τελειοποιείται, θα γίνει ένα πολύτιμο εργαλείο και στα χέρια κυβερνήσεων ή άλλων που εμπλέκονται στον πόλεμο της επικοινωνίας ή της προπαγάνδας. Οι δε πολέμιοι της παραπληροφόρησης θα έχουν, πλέον, πολύ πιο δύσκολο έργο στην προσπάθειά τους να την αναγνωρίζουν και να την αποκαλύπτουν.

Πηγή ΕΝΤΥΠΗ ΕΚΔΟΣΗ ΤΑ ΝΕΑ

Ακολουθήστε τον ot.grστο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στον ot.gr

Latest News

Πρόσφατα Άρθρα Tεχνητή νοημοσύνη