Πρόσφατα η Google απαγόρευσε τους deepfake αλγόριθμους από το Google Colaboratory, τη δωρεάν υπηρεσία υπολογιστών της με πρόσβαση σε GPU (μονάδα επεξεργασίας γραφικών). Ο τεχνολογικός κολοσσός δεν είναι ο μόνος που ρυθμίζει τα deepfakes — αρκετές πολιτείες των ΗΠΑ έχουν θεσπίσει νόμους που τα ρυθμίζουν.

Αντίστοιχα, σχέδιο νόμου της Κίνας απαιτεί αναγνώριση Μέσων που δημιουργούνται από υπολογιστή και ο αναμενόμενος κανονισμός της ΕΕ για την τεχνητή νοημοσύνη μπορεί να περιλαμβάνει μια ρήτρα για τη συγκεκριμένη τεχνολογία.

Τί είναι τα deepfakes

Τα deepfakes αναφέρονται συνήθως σε διάφορα είδη συνθετικών Μέσων που δημιουργούνται από υπολογιστή και περιλαμβάνουν άτομα, ενώ είναι κατασκευασμένα με βαθιά νευρωνικά δίκτυα. Αυτά μπορεί να είναι βίντεο, φωτογραφίες ή ηχογραφήσεις. Η χρήση της βαθιάς μάθησης, αντί των παραδοσιακών τεχνικών επεξεργασίας εικόνων, μειώνει δραστικά την προσπάθεια και την ικανότητα που απαιτείται για τη δημιουργία ενός πειστικού «ψεύτικου» αρχείου.

Όπως αναφέρουν οι ειδικοί της εταιρείας κυβερνοασφάλειας Kaspersky, αρχικά, ο όρος αναφερόταν σε ένα συγκεκριμένο κομμάτι λογισμικού που είχε αποκτήσει δημοτικότητα στο Reddit. Το λογισμικό, το οποίο μπορούσε να «εισάγει» το πρόσωπο ενός ατόμου σε ένα βίντεο με ένα άλλο άτομο, χρησιμοποιήθηκε σχεδόν εξ ολοκλήρου για τη δημιουργία μη συναινετικού πορνό με διασημότητες.

Σύμφωνα με ορισμένες εκτιμήσεις, έως και το 96% του συνόλου των deepfakes είναι πορνογραφικά, υπογραμμίζοντας τις ανησυχίες σχετικά με τα deepfakes που χρησιμοποιούνται για κατάχρηση, εκβιασμό και δημόσιο εξευτελισμό.

Στα χέρια απατεώνων

Η συγκεκριμένη τεχνολογία θα μπορούσε επίσης να βοηθήσει τους εγκληματίες του κυβερνοχώρου. Σε τουλάχιστον δύο περιπτώσεις, στην Αγγλία και το Χονγκ Κονγκ, έχει χρησιμοποιηθεί ένα deepfake φωνής για να εξαπατήσει εταιρείες να μεταφέρουν κεφάλαια σε απατεώνες, παριστάνοντας υπαλλήλους των αντίστοιχων εταιρειών.

Πρόσφατη έρευνα έδειξε ότι οι εμπορικοί αλγόριθμοι ανίχνευσης «ζωντάνιας», που χρησιμοποιούνται από χρηματοπιστωτικά ιδρύματα στις διαδικασίες KYC (ταυτοποίηση στοιχείων), θα μπορούσαν να εξαπατηθούν από deepfakes που δημιουργήθηκαν από φωτογραφίες ταυτότητας, δημιουργώντας νέα διανύσματα επίθεσης και καθιστώντας τις ταυτότητες που διέρρευσαν ένα ακόμη πιο σοβαρό ζήτημα.

Ένα άλλο ζήτημα είναι ότι τα deepfakes υπονομεύουν την εμπιστοσύνη στο περιεχόμενο ήχου και βίντεο, καθώς μπορούν να χρησιμοποιηθούν για κακόβουλους σκοπούς. Για παράδειγμα, σε μια πρόσφατη περίπτωση, μια ψεύτικη συνέντευξη του Ίλον Μασκ χρησιμοποιήθηκε για την προώθηση μιας απάτης με κρυπτονομίσματα. Διάφοροι ειδικοί και ιδρύματα όπως η Europol προειδοποιούν ότι η αυξανόμενη διαθεσιμότητα των deepfakes μπορεί να οδηγήσει σε περαιτέρω εξάπλωση της παραπληροφόρησης στο Διαδίκτυο.

Στην υπηρεσία της Τέχνης

Ο χειρισμός της εικόνας είναι τόσο παλιός όσο και οι ίδιες οι εικόνες, και το CGI υπάρχει εδώ και δεκαετίες, και τα δύο χρησιμοποιούνται ευρέως, όπως και τα deepfakes. Για παράδειγμα, σε ένα πρόσφατο βίντεο του Kendrick Lamar, Heart Part 5, η τεχνολογία deepfake χρησιμοποιήθηκε για να μεταμορφώσει το πρόσωπο του ράπερ σε άλλες διάσημες προσωπικότητες, όπως ο Kanye West.

Στην ταινία Top Gun: Maverick, χρησιμοποιήθηκε ένας αλγόριθμος για τη φωνή του χαρακτήρα του Val Kilmer αφότου ο ηθοποιός έχασε τη φωνή του. Ένας αλγόριθμος deepfake χρησιμοποιήθηκε επίσης για τη δημιουργία μιας viral σειράς TikTok με πρωταγωνιστή τον ψεύτικο Tom Cruise. Και μερικές νεοσύστατες επιχειρήσεις αναζητούν νέους τρόπους για να χρησιμοποιήσουν την τεχνολογία, για παράδειγμα, για να δημιουργήσουν ρεαλιστικά avatars.

Συμβουλές για να… εντοπίσετε ένα deepfake

Ένα πειστικό deepfake, όπως αυτό με τον Tom Cruise, απαιτεί ακόμα πολλή εξειδίκευση και προσπάθεια — και μερικές φορές ακόμη και έναν επαγγελματία που θα αναλάβει τη μίμηση. Τα deepfakes που χρησιμοποιούνται για απάτες εξακολουθούν να τείνουν να είναι χαμηλής ποιότητας και μπορούν να εντοπιστούν παρατηρώντας αφύσικες κινήσεις των χειλιών, αφύσικα μαλλιά, αταίριαστα σχήματα προσώπου, ελάχιστα έως καθόλου βλεφαρίσματα, αναντιστοιχίες στο χρώμα του δέρματος και ούτω καθεξής. Λάθη στην απόδοση των ρούχων ή ένα χέρι που περνάει πάνω από το πρόσωπο μπορούν επίσης να προδώσουν ένα ερασιτεχνικό deepfake.

Αν δείτε ένα διάσημο ή δημόσιο πρόσωπο να προβαίνει σε υπερβολικά αμφιλεγόμενες δηλώσεις ή προσφορές που είναι πολύ καλές για να είναι αληθινές, ακόμα κι αν το βίντεο είναι πειστικό, προχωρήστε με τη δέουσα επιμέλεια και διασταυρώστε τις πληροφορίες με αξιόπιστες πηγές. Λάβετε υπόψη ότι οι απατεώνες μπορούν σκόπιμα να κωδικοποιούν τα βίντεο για να κρύψουν τις ανεπάρκειες των deepfakes, επομένως η καλύτερη στρατηγική δεν είναι να κοιτάζετε το βίντεο αναζητώντας ενδείξεις, αλλά να χρησιμοποιείτε την κοινή λογική και τις δεξιότητές σας στον έλεγχο γεγονότων.

Μια αξιόπιστη λύση ασφαλείας μπορεί να παρέχει την κατάλληλη υποστήριξη, εάν ένα deepfake υψηλής ποιότητας πείσει τους χρήστες να πραγματοποιήσουν λήψη τυχόν κακόβουλων αρχείων ή προγραμμάτων ή να επισκεφτούν τυχόν ύποπτους συνδέσμους ή ιστότοπους phishing.

Σε περίπτωση που πέσετε θύμα deepfake πορνό, μπορείτε να απευθυνθείτε τόσο στον ιστότοπο για να ζητήσετε την κατάργηση του βίντεο (πολλοί ιστότοποι απαγορεύουν τη δημοσίευση deepfakes) όσο και σε μια υπηρεσία επιβολής του νόμου, καθώς η δημιουργία deepfakes αποτελεί ποινικό αδίκημα σε ορισμένες νομοθεσίες.

Ακολουθήστε τον ot.grστο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στον ot.gr

Latest News

Πρόσφατα Άρθρα Tεχνητή νοημοσύνη
Τεχνητή νοημοσύνη: Υπό ρυθμιστικό έλεγχο στη Βρετανία οι συνεργασίες Microsoft-Amazon
Tεχνητή νοημοσύνη |

Υπό ρυθμιστικό έλεγχο στη Βρετανία οι ΑΙ συνεργασίες Microsoft-Amazon

Η Αρχή Ανταγωνισμού και Αγορών της Βρετανίας ζητά από τα ενδιαφερόμενα τρίτα μέρη τις απόψεις τους σχετικά με τις μεγάλες συνεργασίες που συνήψαν η Microsoft και η Amazon με μικρότερες εταιρείες AI