Deepfake: Ένας νέος «πονοκέφαλος» για εργαζόμενους και επιχειρήσεις
Deepfake. Ο όρος προκύπτει από τον συνδυασμό των λέξεων "deep learning" και "fake" και σχεδόν τα πάντα γύρω από αυτό είναι αμφιλεγόμενα. Προφανώς αποτελεί ένας μεγάλος «πονοκέφαλος» και για τις επιχειρήσεις...
Εμφανίστηκε για πρώτη φορά στο Reddit το 2017, όταν ένας χρήστης με το όνομα "deepfakes" άρχισε να μοιράζεται σχετικό περιεχόμενο, αξιοποιώντας τα πρόσωπα διάσημων ανθρώπων.
Από εκδικητικά ροζ βίντεο, μέχρι βαρυσήμαντες τοποθετήσεις ηγετών και γεγονότα που μπορεί να προκαλέσουν παγκόσμια αναστάτωση σε πολιτικό ή εμπορικό επίπεδο, τα deepfakes έχουν αυξηθεί αρκετά κυρίως λόγω της αυξανόμενης πολυπλοκότητας τους.
Η αριστοτεχνική απάτη (δια βίντεο και ήχου) είναι ικανή να προκαλέσει μεγάλες ζημιές... Η ικανότητα μίμησης ενός ατόμου, στην ποιότητα που γίνεται τώρα, είναι πιο δυνατή από ποτέ. Το κόστος για να επιτευχθεί αυτό είναι χαμηλό και τα «πειστικά ψέματα» μπορούν να αναπτυχθούν σε μεγάλη κλίμακα...
Πρόβλημα και για τους εργαζόμενους και τις εταιρείες
Σύμφωνα με στοιχεία της Checkpoint, μέσα σε 30 δευτερόλεπτα ή και λιγότερο, ο οποιοσδήποτε ελάχιστα εκτεθειμένος στα σχετικά εργαλεία AI θα μπορούσε να κατασκευάσει ένα deepfake της φωνής ενός ομιλητή για οποιοδήποτε θέμα και για όσο διάστημα επιθυμεί, με σχεδόν μικρό ή καθόλου κόστος. Αυτό αλλάζει το παιχνίδι και το ίδιο ισχύει τώρα και για το βίντεο.
Ο αριθμός των deepfake επιθέσεων (επιτυχημένων σε αυτό) είναι εκπληκτικός, Σύμφωνα με μια έκθεση της Sumsub Research που διεξήχθη πέρυσι, τα παγκόσμια περιστατικά deepfake έχουν δεκαπλασιαστεί από το 2022 έως το 2023 με τη Βόρεια Αμερική να έχει την υψηλότερη αύξηση επιθέσεων deepfake 1740%.
Οι σημαντικές επιχειρηματικές επιπτώσεις που σχετίζονται με την κακόβουλη ανάπτυξη deepfakes κάνουν τους ανθρώπους και τις επιχειρήσεις να αναρωτιούνται τι μπορούν να κάνουν για να προστατεύσουν τον εαυτό τους και τις δραστηριότητές τους. Πώς μπορούν να καταλάβουν αν το άτομο στην άλλη άκρη μιας τηλεδιάσκεψης είναι πραγματικό και όχι ένα δημιούργημα τεχνητής νοημοσύνης;
Σε υψηλό επίπεδο, απαιτεί από τους ανθρώπους να επαγρυπνούν και να εκτελούν ορισμένους ελέγχους κοινής λογικής. Σε όλες τις περιπτώσεις, οι άνθρωποι τείνουν να σταθμίζουν αυτό που βλέπουν και να κάνουν ορισμένες εκτιμήσεις κινδύνου, σύμφωνα με την Checkpoint.
Με τον ίδιο τρόπο που οι άνθρωποι ελέγχουν επί του παρόντος την ακρίβεια ενός μηνύματος ηλεκτρονικού ταχυδρομείου ή των περιεχομένων του - διασταύρωση του αναγνωριστικού αποστολέα, τοποθέτηση του δείκτη του ποντικιού πάνω από μια διεύθυνση URL ή συνημμένο αρχείο, εξέταση του στυλ και της γραμματικής - μπορούν να επωφεληθούν από την εφαρμογή του ίδιου τύπου προσέγγισης στις τηλεδιάσκεψης, στις οποίες καλούνται να συμμετέχουν σήμερα.
Αυτός ο τριγωνισμός των ενδείξεων και των παραγόντων κινδύνου είναι ένα είδος «ελέγχου ταυτότητας πολλαπλών παραγόντων» που πρέπει τώρα να εκτελέσουμε πιο συνειδητά στα περιβάλλοντα εργασίας.
Συμβουλές προς εργαζόμενους
Ποιοι είναι λοιπόν μερικοί από τους ελέγχους που μπορούν να εκτελέσουν οι εργαζόμενοι σήμερα για να εντοπίσουν ένα deepfake ή να ειδοποιηθούν για μια πιο εξελιγμένη προσπάθεια απάτης που χρησιμοποιεί τεχνολογία deepfake;
- Ο πρώτος είναι να εκτελέσετε έναν γρήγορο έλεγχο «ζωντάνιας» - ζητήστε από το άτομο στην άλλη άκρη του βίντεο να γυρίσει το κεφάλι του από τη μία πλευρά στην άλλη. Αυτό είναι αποτελεσματικό σήμερα, επειδή τα γενετικά εργαλεία AI που χρησιμοποιούνται για την παραγωγή deepfakes δεν δημιουργούν τρισδιάστατη ή 360 μοιρών ομοιότητα του ατόμου, μπορούν να παράγουν μόνο επίπεδες μπροστινές εικόνες. Οι πλευρικές προβολές του κεφαλιού και του προσώπου δεν θα αποδοθούν ή δεν θα εμφανιστούν σωστά. Έτσι, εάν οι εργαζόμενοι είναι ύποπτοι, θα πρέπει να ζητήσουν από το άτομο να στρίψει αριστερά ή δεξιά και αν εξαφανιστεί το πρόσωπο, κλείστε το τηλέφωνο.
Ομοίως, άλλες φυσικές ανθρώπινες συμπεριφορές που παρατηρούνται συχνά σε μια τηλεδιάσκεψη - κάποιος που φτάνει και ξύνει ή αγγίζει το κεφάλι του, για παράδειγμα - δεν θα εμφανιστεί σωστά με ένα deepfake.
Αυτό βέβαια ισχύει σήμερα, αλλά μπορεί να μην ισχύει αύριο. Ο ταχύς ρυθμός ανάπτυξης της γενετικής τεχνητής νοημοσύνης σημαίνει ότι τα εργαλεία θα γίνουν καλύτερα στη δημιουργία πιο ρεαλιστικών ομοιοτήτων των ανθρώπων και των τρόπων τους, γεγονός που θα μπορούσε να κάνει έναν έλεγχο ζωντάνιας πιο δύσκολο με την πάροδο του χρόνου. Οι εργαζόμενοι μπορεί να είναι σε θέση να πάρουν πρόσθετες ενδείξεις ότι μια τηλεδιάσκεψη με ένα στέλεχος δεν είναι αυτό που φαίνεται.
- Ένας χρήσιμος έλεγχος όταν λαμβάνεται ένας σύνδεσμο τηλεδιάσκεψης - ή όταν συμμετέχετε σε μια κλήση πολλών μερών - είναι να ελέγξετε εάν οι συμμετέχοντες συμμετέχουν χρησιμοποιώντας μια έκδοση αυτού του λογισμικού με εταιρική άδεια. Η εμπιστοσύνη μπορεί να εδραιωθεί περαιτέρω επικοινωνώντας εκ των προτέρων - μέσω διαφορετικής μεθόδου, όπως συνομιλία ή ηλεκτρονικό ταχυδρομείο - πώς εσείς και άλλοι θα συμμετάσχετε στην τηλεδιάσκεψη. Εάν γνωρίζετε εκ των προτέρων ότι θα λάβετε μια πρόσκληση τηλεδιάσκεψης από έναν συγκεκριμένο τομέα εταιρείας, είναι ένας άλλος «παράγοντας» που μπορεί να ληφθεί υπόψη όταν αποφασίζετε εάν θα αποδεχτείτε ή όχι τη σύσκεψη. Εάν η σύσκεψη ξεκινά από έναν προσωπικό λογαριασμό ή κάποιος συμμετέχει απροσδόκητα και χωρίς εξήγηση από έναν προσωπικό λογαριασμό, μπορεί να ανησυχητικό - και δικαιολογεί, τουλάχιστον, μια ερώτηση ή δύο ή μερικούς περαιτέρω ελέγχους.
- Μια τρίτη χρήσιμη στρατηγική είναι να έχετε συμφωνήσει εσωτερικές κώδικές λέξεις που πρέπει να ελέγχονται εκτός ζώνης πριν εκτελεστούν ορισμένες ενέργειες - όπως μια μεταφορά χρημάτων.
Σχόλια