Σε μια προσπάθεια να δείξουν στους διευθυντές ότι χρησιμοποιούν την τεχνολογία πιο συχνά, οι υπάλληλοι της Amazon χρησιμοποιούν ένα εσωτερικό εργαλείο τεχνητής νοημοσύνης για να αυτοματοποιήσουν μη απαραίτητες εργασίες.
Ο όμιλος έχει αρχίσει να αναπτύσσει ευρέως το εσωτερικό του προϊόν “MeshClaw” τις τελευταίες εβδομάδες, επιτρέποντας στους υπαλλήλους να δημιουργούν μέσω τεχνητής νοημοσύνης και να μπορούν να συνδεθούν με λογισμικό χώρου εργασίας και να εκτελούν εργασίες για λογαριασμό ενός χρήστη, σύμφωνα με πηγές των Financial Times.
Ορισμένοι υπάλληλοι δήλωσαν ότι οι συνάδελφοί τους χρησιμοποιούσαν το λογισμικό για να αυτοματοποιήσουν μια πρόσθετη δραστηριότητα τεχνητής νοημοσύνης για να αυξήσουν την κατανάλωση tokens, ήτοι μονάδων δεδομένων που επεξεργάζονται τα μοντέλα.
Είπαν ότι η κίνηση αντανακλούσε την πίεση για υιοθέτηση της τεχνολογίας, αφού η εταιρεία εισήγαγε στόχους για περισσότερο από το 80% των προγραμματιστών να χρησιμοποιούν τεχνητή νοημοσύνη κάθε εβδομάδα και νωρίτερα φέτος άρχισε να παρακολουθεί την κατανάλωση tokens τεχνητής νοημοσύνης σε εσωτερικούς πίνακες κατάταξης.
«Υπάρχει τόσο μεγάλη πίεση για τη χρήση αυτών των εργαλείων», δήλωσε ένας υπάλληλος της Amazon στους FT, προσθέτοντας ότι «κάποιοι άνθρωποι χρησιμοποιούν απλώς το MeshClaw για να μεγιστοποιήσουν τη χρήση των token τους».
Η Amazon έχει πει στους υπαλλήλους ότι τα στατιστικά στοιχεία των token της Τεχνητής Νοημοσύνης δεν θα χρησιμοποιηθούν στις αξιολογήσεις απόδοσης. Ωστόσο, αρκετά μέλη του προσωπικού δήλωσαν ότι πιστεύουν ότι οι διευθυντές παρακολουθούν τα δεδομένα.
«Οι διευθυντές το εξετάζουν», είπε ένας άλλος νυν υπάλληλος, ενώ τόνισε: «Όταν παρακολουθούν τη χρήση, δημιουργούνται αντιφατικά κίνητρα και κάποιοι άνθρωποι είναι πολύ ανταγωνιστικοί σε αυτό».
Οι ομάδες της Silicon Valley πιέζουν για να αυξήσουν την υιοθέτηση εργαλείων δημιουργικής Τεχνητής Νοημοσύνης, καθώς οι εταιρείες επιδιώκουν να επιδείξουν αποδόσεις από τις τεράστιες δεσμεύσεις δαπανών για υποδομές Τεχνητής Νοημοσύνης και να ενσωματώσουν την τεχνολογία πιο βαθιά στην καθημερινή εργασία.

Χρήση ΑΙ με το ζόρι στην Amazon
Η Amazon αναμένεται να δαπανήσει φέτος 200 δισεκατομμύρια δολάρια σε κεφαλαιουχικές δαπάνες, η συντριπτική πλειοψηφία των οποίων θα διατεθεί για την Τεχνητή Νοημοσύνη και την υποδομή κέντρων δεδομένων.
Ο όμιλος ηλεκτρονικού εμπορίου είχε δημοσιεύσει στατιστικά στοιχεία για ολόκληρη την ομάδα σχετικά με τη χρήση της Τεχνητής Νοημοσύνης από το προσωπικό του, αλλά πρόσφατα περιόρισε την πρόσβαση, ώστε μόνο οι ίδιοι οι υπάλληλοι και οι διευθυντές να μπορούν να βλέπουν τα στατιστικά τους. Οι διευθυντές αποθαρρύνονται από τη χρήση token για τη μέτρηση της απόδοσης, σύμφωνα με πηγή των FT.
Οι υπάλληλοι της Meta έχουν επίσης ασχοληθεί με το λεγόμενο «tokenmaxxing» για να βελτιώσουν τη θέση τους σε εσωτερικούς πίνακες κατάταξης.
Το εργαλείο MeshClaw που χρησιμοποίησαν ορισμένοι υπάλληλοι για να αυξήσουν τα στατιστικά τους στοιχεία εμπνεύστηκε από το OpenClaw, το οποίο έγινε viral τον Φεβρουάριο.
Το MeshClaw της Amazon μπορεί να ξεκινήσει την ανάπτυξη κώδικα, να ταξινομήσει email και να αλληλεπιδράσει με εφαρμογές όπως το Slack, σύμφωνα με άτομα που γνωρίζουν το θέμα.
Η εταιρεία ανέφερε σε ανακοίνωσή της ότι το εργαλείο επέτρεψε σε «χιλιάδες υπαλλήλους της Amazon να αυτοματοποιήσουν επαναλαμβανόμενες εργασίες κάθε μέρα» και ήταν ένα παράδειγμα «που ενδυναμώνει ομάδες» να πειραματίζονται και να υιοθετούν εργαλεία Τεχνητής Νοημοσύνης.
«Είμαστε αφοσιωμένοι στην ασφαλή, προστατευμένη και υπεύθυνη ανάπτυξη της δημιουργικής Τεχνητής Νοημοσύνης για τους πελάτες μας», πρόσθεσε.
Σύμφωνα με εσωτερικά έγγραφα, πάνω από 30 υπάλληλοι της Amazon εργάστηκαν στο εσωτερικό εργαλείο. Ένα πρόσφατο υπόμνημα που περιέγραφε το bot ανέφερε: «Ονειρεύεται όλη τη νύχτα για να εμπεδώσει όσα έμαθε, παρακολουθεί τις αναπτύξεις σας ενώ βρίσκεστε σε συσκέψεις και αξιολογεί το email σας πριν ξυπνήσετε».
Πολλοί υπάλληλοι της Amazon δήλωσαν ότι ανησυχούν για τους κινδύνους ασφαλείας ενός εργαλείου τεχνητής νοημοσύνης στο οποίο δόθηκε άδεια να ενεργεί εκ μέρους ενός χρήστη. Αυτό διακινδυνεύει καταστάσεις όπου το μοντέλο μπορεί να κάνει λάθη ή να προβεί σε ακούσιες ενέργειες.
«Η προεπιλεγμένη στάση ασφαλείας με τρομάζει», είπε ένας υπάλληλος, προσθέτοντας: «Δεν πρόκειται να το αφήσω να ενεργοποιηθεί και απλώς να κάνει ότι θέλει».







































