Τεχνητή Νοημοσύνη: Όταν η ταχύτητα γίνεται εχθρός της ασφάλειας

Η AI τρέχει με χίλια, αλλά οι πρόσφατες αστοχίες δείχνουν πως η ταχύτητα χωρίς ανθρώπινο έλεγχο αποτελεί συνταγή για πανάκριβα λάθη.

Τεχνητή Νοημοσύνη: Όταν η ταχύτητα γίνεται εχθρός της ασφάλειας

Το διάσημο ρητό της Σίλικον Βάλεϊ «κινηθείτε γρήγορα και σπάστε πράγματα» (move fast and break things) φαίνεται πως, στην εποχή της Τεχνητής Νοημοσύνης (AI), παίρνει πλέον εξαιρετικά κυριολεκτική μορφή.

Πρόσφατα τεχνολογικά ατοπήματα φέρνουν στο φως τη λεπτή γραμμή πάνω στην οποία καλούνται να ισορροπήσουν οι εταιρείες: από τη μία θέλουν να ενθαρρύνουν τη χρήση της Τεχνητής Νοημοσύνης, και από την άλλη πρέπει να προστατευτούν από τα λάθη της.

Όταν οι αλγόριθμοι κάνουν τα δικά τους

Όπως αναφέρει το Business Insider, η Amazon αναγκάστηκε πρόσφατα να επιβάλει νέες αυστηρές δικλείδες ασφαλείας μετά από μια σειρά τεχνικών προβλημάτων. Ένα από αυτά τα «μπλακ άουτ» μάλιστα, προκλήθηκε κατά κύριο λόγο από ένα AI εργαλείο συγγραφής κώδικα, κοστίζοντας στην εταιρεία σχεδόν 120.000 χαμένες παραγγελίες.

Αυτό δεν είναι μεμονωμένο περιστατικό. Η βιαστική υιοθέτηση της Τεχνητής Νοημοσύνης έχει προκαλέσει πονοκεφάλους και σε άλλες επιχειρήσεις. Τον περασμένο Ιανουάριο, ο ιδρυτής μιας εταιρείας διοργάνωσης εκδηλώσεων διαπίστωσε ότι ο ψηφιακός AI βοηθός τους έκανε τέσσερα σοβαρά λάθη μέσα σε μία εβδομάδα – μεταξύ των οποίων και το να μοιράζει δωρεάν εισιτήρια.

Ακόμη χειρότερα, το περασμένο καλοκαίρι, ο CEO μιας πλατφόρμας προγραμματισμού ζήτησε δημόσια συγγνώμη όταν ένα AI εργαλείο διέγραψε όλο τον κώδικα ενός πελάτη και στη συνέχεια… «είπε ψέματα» για να το καλύψει.

Το δίλημμα των εργοδοτών: Καινοτομία ή ασφάλεια;

Αυτά τα περιστατικά αναδεικνύουν το δύσκολο έργο των επιχειρήσεων. Αν τα στελέχη γίνουν υπερβολικά αυστηρά με τους εργαζομένους, ο πειραματισμός και η καινοτομία «παγώνουν». Αν, αντίθετα, αφήσουν τα πράγματα εντελώς ανεξέλεγκτα, οι κίνδυνοι από προβληματικούς κώδικες ή «απρόσεκτα» συστήματα AI πολλαπλασιάζονται ραγδαία.

Όπως επισημαίνει ο Matt Rosenbaum από το The Conference Board: «Κάθε εταιρεία πρέπει να γνωρίζει τις αντοχές της στο ρίσκο, αλλά και να έχει έτοιμο σχέδιο δράσης όταν τα πράγματα στραβώνουν, ώστε να μην επαναληφθούν τα ίδια λάθη».

Η ταχύτητα ως παγίδα

Ένα μεγάλο μέρος του προβλήματος, σύμφωνα με τον Todd Olson, CEO της startup Pendo, είναι ότι ο ρόλος των προγραμματιστών έχει αλλάξει ριζικά. Πλέον, αντί να γράφουν κώδικα από το μηδέν, περνούν τον χρόνο τους ελέγχοντας τον κώδικα που παράγει η AI – μια διαδικασία που απαιτεί εντελώς διαφορετικές δεξιότητες και συνήθειες.

Το πρόβλημα γιγαντώνεται λόγω της απίστευτης ταχύτητας της AI. Υπό την πίεση των προθεσμιών, πολλοί εργαζόμενοι μπαίνουν στον πειρασμό να εμπιστευτούν τυφλά το αποτέλεσμα της τεχνητής νοημοσύνης.

Έρευνα της KPMG επιβεβαιώνει ότι σχεδόν τα δύο τρίτα των εργαζομένων έχουν αποδεχτεί αποτελέσματα της AI χωρίς να τα ελέγξουν προσεκτικά, ενώ το 72% παραδέχεται ότι καταβάλλει λιγότερη προσπάθεια στη δουλειά του εξαιτίας αυτών των εργαλείων.

Η Lauren Buitta, CEO της Girl Security, προειδοποιεί: «Η ταχύτητα χωρίς αναλυτική σκέψη και έλεγχο μπορεί να δημιουργήσει τεράστια συστημικά προβλήματα σε μια εταιρεία». Επιπλέον, καθώς τα εργαλεία γίνονται πιο ισχυρά, οι εργαζόμενοι τα δοκιμάζουν στα όριά τους, χωρίς να κατανοούν πάντα τις αλυσιδωτές επιπτώσεις μιας ενδεχόμενης αστοχίας.

Τα λάθη ως μαθήματα

Παρά την αναστάτωση, υπάρχει και θετική πλευρά. Στην περίπτωση της Amazon, το τεχνικό πρόβλημα πιθανότατα της έδωσε πληθώρα δεδομένων για να εκπαιδεύσει τα συστήματά της ώστε να αναγνωρίζουν και να προλαμβάνουν αντίστοιχα σφάλματα στο μέλλον.

Ο Andrew Filev, ιδρυτής της Zencoder, εξηγεί ότι τα μικρολάθη είναι αναπόσπαστο και θετικό κομμάτι του πειραματισμού – αρκεί φυσικά να εντοπίζονται εσωτερικά και να μη φτάνουν ποτέ στον τελικό πελάτη. Το κλειδί είναι να ενθαρρύνονται οι εργαζόμενοι να αναφέρουν αμέσως τα λάθη της AI, πριν το πρόβλημα πάρει διαστάσεις χιονοστιβάδας.

Προς το παρόν, η μόνη ασφαλής οδός προς την πλήρη αυτονομία της Τεχνητής Νοημοσύνης απαιτεί… ανθρώπινη παρουσία. «Πρέπει ο έλεγχος από την AI και ο έλεγχος από τους ανθρώπους να λειτουργούν παράλληλα», καταλήγει ο Filev, «μέχρι τουλάχιστον η κρίση της μηχανής να φτάσει στο ίδιο επίπεδο με την ανθρώπινη».

Πηγή: in.gr

OT Originals
Περισσότερα από Tεχνητή νοημοσύνη

ot.gr | Ταυτότητα

Διαχειριστής - Διευθυντής: Λευτέρης Θ. Χαραλαμπόπουλος

Διευθυντής Σύνταξης: Χρήστος Κολώνας

Ιδιοκτησία - Δικαιούχος domain name: ΟΝΕ DIGITAL SERVICES MONOΠΡΟΣΩΠΗ ΑΕ

Μέτοχος: ALTER EGO MEDIA A.E.

Νόμιμος Εκπρόσωπος: Ιωάννης Βρέντζος

Έδρα - Γραφεία: Λεωφόρος Συγγρού αρ 340, Καλλιθέα, ΤΚ 17673

ΑΦΜ: 801010853, ΔΟΥ: ΚΕΦΟΔΕ ΑΤΤΙΚΗΣ

Ηλεκτρονική διεύθυνση Επικοινωνίας: ot@alteregomedia.org, Τηλ. Επικοινωνίας: 2107547007

Μέλος

ened
ΜΗΤ

Aριθμός Πιστοποίησης
Μ.Η.Τ.232433

Απόρρητο