Εν μέσω του γρήγορου ρυθμού της τεχνολογικής προόδου και των κοινωνικών αλλαγών, ο όρος «AI» έχει τοποθετηθεί σταθερά στην πρώτη γραμμή των παγκόσμιων συζητήσεων. Με την αυξανόμενη εξάπλωση των μεγάλων γλωσσικών μοντέλων (LLM), η αύξηση των ανησυχιών για την ασφάλεια και την προστασία της ιδιωτικότητας συνδέει άμεσα την τεχνητή νοημοσύνη με τον κόσμο της ψηφιακής ασφάλειας.

Οι ερευνητές της Kaspersky δείχνουν πώς τα εργαλεία AI έχουν βοηθήσει τους κυβερνοεγκληματίες στην κακόβουλη δραστηριότητά τους το 2023, ενώ παράλληλα παρουσιάζουν τις πιθανές αμυντικές εφαρμογές αυτής της τεχνολογίας. Οι ειδικοί της εταιρείας αποκαλύπτουν επίσης το εξελισσόμενο τοπίο απειλών που σχετίζονται με την τεχνητή νοημοσύνη στο μέλλον που μπορεί να περιλαμβάνουν:

Εκτεθειμένα σε κυβερνοεπιθέσεις τα εταιρικά δεδομένα

Πιο περίπλοκα τρωτά σημεία

Καθώς τα μεγάλα γλωσσικά μοντέλα (LLM) που ακολουθούν οδηγίες ενσωματώνονται σε προϊόντα που απευθύνονται περισσότερο στους καταναλωτές, θα προκύψουν νέες πολύπλοκες ευπάθειες στη διασταύρωση του πιθανολογικού generative AI με τις παραδοσιακές ντετερμινιστικές τεχνολογίες, επεκτείνοντας την επιφάνεια επίθεσης που θα πρέπει να διασφαλίσουν οι επαγγελματίες στον τομέα της κυβερνοασφάλειας. Αυτό θα απαιτήσει από τους προγραμματιστές να μελετήσουν νέα μέτρα ασφαλείας, όπως η έγκριση των χρηστών για ενέργειες που ξεκινούν από παράγοντες LLM.

Ένας ολοκληρωμένος βοηθός τεχνητής νοημοσύνης για ειδικούς

Οι Red teamers και οι ερευνητές αξιοποιούν το generative AI για καινοτόμα εργαλεία ασφάλειας στον κυβερνοχώρο, οδηγώντας ενδεχομένως σε έναν βοηθό που χρησιμοποιεί LLM ή μηχανική μάθηση (ML). Αυτό το εργαλείο θα μπορούσε να αυτοματοποιήσει τις εργασίες του red teaming, προσφέροντας καθοδήγηση με βάση τις εντολές που εκτελούνται σε ένα pentesting περιβάλλον.

Τα νευρωνικά δίκτυα θα χρησιμοποιούνται όλο και περισσότερο για τη δημιουργία πειστικού περιεχομένου για απάτες

Το επόμενο έτος, οι απατεώνες ενδέχεται να ενισχύσουν τις τακτικές τους χρησιμοποιώντας νευρωνικά δίκτυα, αξιοποιώντας εργαλεία AI για να δημιουργήσουν πιο πειστικό δόλιο περιεχόμενο. Με τη δυνατότητα αβίαστης δημιουργίας πειστικών εικόνων και βίντεο, οι κακόβουλοι παράγοντες αποτελούν αυξημένο κίνδυνο για κλιμάκωση απειλών στον κυβερνοχώρο που σχετίζονται με απάτες.

Η τεχνητή νοημοσύνη δεν θα αποτελέσει κινητήρια δύναμη για ρηξικέλευθες αλλαγές στο τοπίο των απειλών το 2024
Παρά τις παραπάνω τάσεις, οι ειδικοί της Kaspersky παραμένουν σκεπτικοί σχετικά με το αν η τεχνητή νοημοσύνη θα αλλάξει σημαντικά το τοπίο των απειλών σύντομα. Ενώ οι εγκληματίες του κυβερνοχώρου υιοθετούν το generative AI, το ίδιο ισχύει και για τους κυβερνο-υπερασπιστές, οι οποίοι θα χρησιμοποιήσουν τα ίδια ή ακόμα πιο προηγμένα εργαλεία για να δοκιμάσουν την ενίσχυση της ασφάλειας του λογισμικού και των δικτύων, καθιστώντας απίθανο να αλλάξει δραστικά το τοπίο των επιθέσεων.

Περισσότερες ρυθμιστικές πρωτοβουλίες για την τεχνητή νοημοσύνη

Καθώς η ταχέως εξελισσόμενη τεχνολογία αναπτύσσεται, έχει καταστεί θέμα χάραξης πολιτικής ρύθμισης και νομοθεσίας. Ο αριθμός των ρυθμιστικών πρωτοβουλιών που σχετίζονται με την τεχνητή νοημοσύνη αναμένεται να αυξηθεί. Οι μη κρατικοί φορείς, όπως οι εταιρείες τεχνολογίας, δεδομένης της εμπειρογνωμοσύνης τους στην ανάπτυξη και τη χρήση της τεχνητής νοημοσύνης, μπορούν να παράσχουν ανεκτίμητες πληροφορίες για συζητήσεις σχετικά με τη ρύθμιση της τεχνητής νοημοσύνης τόσο σε παγκόσμιες όσο και σε εθνικές πλατφόρμες.

Υδατογράφημα για περιεχόμενο που δημιουργείται από AI

Θα απαιτηθούν περισσότεροι κανονισμοί, καθώς και πολιτικές παροχών υπηρεσιών για την επισήμανση ή τον εντοπισμό συνθετικού περιεχομένου, με τους τελευταίους να συνεχίζουν να επενδύουν σε τεχνολογίες ανίχνευσης. Οι προγραμματιστές και οι ερευνητές, από την πλευρά τους, θα συμβάλουν στις μεθόδους ανίχνευσης υδατογραφημάτων συνθετικών μέσων για ευκολότερη αναγνώριση και προέλευση.

«Η τεχνητή νοημοσύνη στην ασφάλεια στον κυβερνοχώρο είναι δίκοπο μαχαίρι. Οι προσαρμοστικές της δυνατότητες ενισχύουν την άμυνά μας, προσφέροντας μια προληπτική ασπίδα ενάντια στις εξελισσόμενες απειλές. Ωστόσο, ο ίδιος δυναμισμός ενέχει κινδύνους, καθώς οι επιτιθέμενοι αξιοποιούν την τεχνητή νοημοσύνη για να δημιουργήσουν πιο εξελιγμένες επιθέσεις. Η επίτευξη της σωστής ισορροπίας, η διασφάλιση της υπεύθυνης χρήσης χωρίς υπερβολική κοινή χρήση ευαίσθητων δεδομένων είναι υψίστης σημασίας για τη διασφάλιση των ψηφιακών μας συνόρων», σχολιάζει ο Vladislav Tushkanov, ειδικός ασφάλειας στην Kaspersky.

Για να μάθετε περισσότερα σχετικά με την τεχνητή νοημοσύνη στην ασφάλεια στον κυβερνοχώρο επισκεφτείτε το Securelist.com.

Τα παραπάνω αποτελούν μέρος του Kaspersky Security Bulletin (KSB) – μιας ετήσιας σειράς προβλέψεων και αναλυτικών αναφορών σχετικά με τις βασικές αλλαγές στον κόσμο της ψηφιακής ασφάλειας. Ακολουθήστε τον σύνδεσμο για να μάθετε περισσότερα.

Ακολουθήστε τον ot.grστο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στον ot.gr

Latest News

Πρόσφατα Άρθρα Τεχνολογία
Google: Παρουσίασε νέο μικροτσίπ και «έλυσε» ένα χρόνιο πρόβλημα των κβαντικών υπολογιστών
Τεχνολογία |

Αποκαλυπτήρια για το «αλάνθαστο» κβαντικό μικροτσίπ της Google

Σε άρθρο που δημοσιεύθηκε στο περιοδικό Nature, η Google είπε ότι βρήκε έναν τρόπο να συνδυάζει τα Qubits του τσιπ Willow, έτσι ώστε τα ποσοστά σφαλμάτων να μειώνονται καθώς αυξάνεται ο αριθμός των Qubits

Έρευνα BrokerChooser: Αυτές είναι οι χώρες με τα μεγαλύτερα ποσοστά online απάτης
Τεχνολογία |

Αυτές είναι οι χώρες με τα μεγαλύτερα ποσοστά online απάτης - Η θέση της Ελλάδας

Η έρευνα βασίζεται σε ένα σύνολο δεδομένων που περιλαμβάνει πάνω από 30.000 γνωστές απατηλές οντότητες, αναλύοντας τα μοτίβα αναζήτησης της Google σε περιεχόμενο της BrokerChooser σε 56 γλώσσες