Deepfake: Τα τρία απειλητικά σενάρια που αντιμετωπίζουν οι χρήστες το 2023
Σύμφωνα με το Παγκόσμιο Οικονομικό Φόρουμ (WEF), o αριθμός των deepfake βίντεο στο διαδίκτυο αυξάνεται ετησίως περίπου κατά 900%. Πολλές περιπτώσεις απάτης μέσω deepfake έχουν πάρει μεγάλη δημοσιότητα, με τις σχετικές αναφορές να κάνουν λόγο για παρενόχληση, εκδίκηση και απόπειρα απάτης με κρυπτονομίσματα κ.λπ. Τώρα οι ερευνητές της Kaspersky ρίχνουν φως στις τρεις κορυφαίες απάτες που χρησιμοποιούν deepfakes και τις οποίες πρέπει να προσέχετε.
Η χρήση των νευρωνικών δικτύων (neural networks) και της βαθιάς μάθησης (deep learning,
Οικονομική απάτη
Τα deepfakes μπορούν να χρησιμοποιηθούν για κοινωνική μηχανική (social engineering), όπου οι κακόβουλοι χρήστες χρησιμοποιούν τροποποιημένες εικόνες για να υποδυθούν διασημότητες, ώστε να δελεάσουν τα θύματα να πέσουν στην «παγίδα» τους. Για παράδειγμα, ένα ψεύτικο βίντεο του Elon Musk που υποσχόταν υψηλές αποδόσεις από ένα επισφαλές επενδυτικό σχήμα κρυπτονομισμάτων έγινε viral πέρυσι, με αποτέλεσμα τα θύματα της απάτης να χάσουν τα χρήματά τους. Για να δημιουργήσουν deepfakes όπως αυτό, οι κακόβουλοι χρήστες χρησιμοποιούν πλάνα διασημοτήτων ή συνδυάζουν παλιά βίντεο και, πραγματοποιώντας μεταδόσεις ζωντανής ροής σε πλατφόρμες κοινωνικής δικτύωσης, υπόσχονται να διπλασιάσουν κάθε πληρωμή κρυπτονομίσματος που τους αποστέλλεται.
Πορνογραφικά deepfakes
Μια άλλη χρήση των deepfakes είναι η παραβίαση της ιδιωτικής ζωής ενός ατόμου. Τα deepfake βίντεο μπορούν να δημιουργηθούν με την προσθήκη του προσώπου ενός ατόμου σε ένα πορνογραφικό βίντεο, προκαλώντας βλάβη και δυσφορία. Σε μια περίπτωση, εμφανίστηκαν στο διαδίκτυο deepfake βίντεο ορισμένων διασημοτήτων, τα οποία έδειχναν τα πρόσωπά τους τοποθετημένα πάνω στα σώματα ηθοποιών που πρωταγωνιστούν σε ταινίες πορνογραφικού περιεχομένου. Κατά συνέπεια, σε τέτοιες περιπτώσεις, τα θύματα της επίθεσης έχουν υφίστανται βλάβη στη φήμη τους και παραβιάζονται τα δικαιώματά τους.
Επιχειρηματικοί κίνδυνοι
Συχνά, τα deepfakes χρησιμοποιούνται ακόμη και για να πλήξουν και επιχειρήσεις με τρόπους όπως ο εκβιασμός στελεχών της εταιρείας και βιομηχανική κατασκοπεία. Για παράδειγμα, υπάρχει μια γνωστή περίπτωση όπου εγκληματίες του κυβερνοχώρου κατάφεραν να εξαπατήσουν έναν διευθυντή τράπεζας στα Ηνωμένα Αραβικά Εμιράτα και να κλέψουν 35 εκατομμύρια δολάρια, χρησιμοποιώντας ένα deepfake φωνής. Μια μικρή μόνο ηχογράφηση της φωνής του αφεντικού του εργαζόμενου ήταν αρκετή για να δημιουργηθεί ένα πειστικό deepfake. Σε μια άλλη περίπτωση, απατεώνες προσπάθησαν να ξεγελάσουν τη μεγαλύτερη πλατφόρμα κρυπτονομισμάτων, την Binance. Το στέλεχος της Binance εξεπλάγη όταν άρχισε να λαμβάνει ευχαριστήρια μηνύματα σχετικά με μια συνάντηση Zoom στην οποία δεν συμμετείχε ποτέ. Μόνο με τη χρήση των online διαθέσιμων εικόνων του, οι απατεώνες κατάφεραν να δημιουργήσουν ένα deepfake και να το χρησιμοποιήσουν σε μια online συνάντηση, μιλώντας αντί του στελέχους.
Σε γενικές γραμμές, οι απατεώνες που εκμεταλλεύονται τα deepfakes επιδιώκουν την παραπληροφόρηση και τη χειραγώγηση της κοινής γνώμης, τον εκβιασμό ή ακόμη και την κατασκοπεία. Σύμφωνα με προειδοποίηση του FBI, οι υπεύθυνοι ανθρώπινου δυναμικού βρίσκονται ήδη σε εγρήγορση όσον αφορά τη χρήση deepfakes από υποψηφίους που υποβάλλουν αίτηση για απομακρυσμένη εργασία. Στην περίπτωση της Binance, οι επιτιθέμενοι χρησιμοποίησαν εικόνες ανθρώπων από το Διαδίκτυο για να δημιουργήσουν deepfakes και ήταν σε θέση να προσθέσουν ακόμη και τις φωτογραφίες αυτών των ανθρώπων σε βιογραφικά σημειώματα. Αν καταφέρουν να ξεγελάσουν με αυτόν τον τρόπο τους υπεύθυνους ανθρώπινου δυναμικού και αργότερα λάβουν μια προσφορά, μπορούν να κλέψουν δεδομένα του εργοδότη.
Είναι επίσης σημαντικό να ληφθεί υπόψη ότι τα deepfakes απαιτούν υψηλή χρηματοδότηση αφού αποτελούν μια πολύ ακριβή μορφή απάτης. Παλαιότερη έρευνα της Kaspersky αποκάλυψε τους τύπους των deepfakes που πωλούνται στο darknet και το κόστος τους. Εάν ένας απλός χρήστης βρει ένα απλό λογισμικό στο διαδίκτυο και προσπαθήσει να φτιάξει ένα deepfake, το αποτέλεσμα θα είναι μη ρεαλιστικό. Λίγοι άνθρωποι θα αγοράσουν ένα deepfake κακής ποιότητας: θα παρατηρήσουν καθυστερήσεις στην έκφραση του προσώπου ή μια θόλωση του σχήματος του πηγουνιού.
Επομένως, όταν οι εγκληματίες του κυβερνοχώρου προετοιμάζουν μια τέτοια απατή, χρειάζονται έναν μεγάλο όγκο δεδομένων με φωτογραφίες και αποσπάσματα βίντεο από το άτομο το οποίο θέλουν να αντιγράψουν. Οι διαφορετικές γωνίες, η φωτεινότητα, οι εκφράσεις του προσώπου, όλα παίζουν μεγάλο ρόλο στην τελική ποιότητα. Για να είναι το αποτέλεσμα ρεαλιστικό, είναι απαραίτητη η σύγχρονη ισχύς των υπολογιστών και του λογισμικού. Όλα αυτά απαιτούν τεράστια ποσότητα πόρων και είναι διαθέσιμα μόνο σε μικρό αριθμό κυβερνοεγκληματιών. Ως εκ τούτου, παρ’ όλο τον κίνδυνο που μπορεί να προκαλέσει ένα deepfake, εξακολουθεί να είναι μια εξαιρετικά σπάνια απειλή και μόνο ένας μικρός αριθμός αγοραστών θα μπορέσει να το αντέξει οικονομικά – άλλωστε, η τιμή για ένα λεπτό ενός deepfake μπορεί να ξεκινά από 20.000 δολάρια ΗΠΑ.
«Μία από τις σοβαρότερες απειλές για τις επιχειρήσεις δεν είναι απαραίτητα η κλοπή εταιρικών δεδομένων. Σε κάποιες περιπτώσεις η ίδια η εικόνα της εταιρείας μπορεί να πληγεί στο ματιά του κοινού. Φανταστείτε ότι δημοσιεύεται ένα βίντεο στο οποίο το στέλεχός σας κάνει αμφιλεγόμενες δηλώσεις για ευαίσθητα θέματα. Για τις εταιρείες, αυτό μπορεί να οδηγήσει γρήγορα σε πτώση της μετοχής στο χρηματιστήριο. Παρά το γεγονός ότι μια τέτοια απειλή είναι εξαιρετικά επικίνδυνη, η πιθανότητα να δεχτείτε επίθεση με αυτόν τον τρόπο παραμένει εξαιρετικά χαμηλή λόγω του κόστους δημιουργίας deepfakes και του γεγονότος ότι λίγοι κακόβουλοι χρήστες είναι σε θέση να δημιουργήσουν ένα deepfake υψηλής ποιότητας», σχολιάζει ο Dmitry Anikin, ανώτερος εμπειρογνώμονας ασφαλείας της Kaspersky.
«Αυτό που μπορείτε να κάνετε σήμερα είναι να γνωρίζετε τα βασικά χαρακτηριστικά των deepfake βίντεο για να προσέχετε και να κρατάτε επιφυλακτική στάση απέναντι στο φωνητικό ταχυδρομείο (voice mails) και τα βίντεο που λαμβάνετε. Επίσης, βεβαιωθείτε ότι οι υπάλληλοί σας καταλαβαίνουν τι είναι το deepfake και πώς μπορούν να το αναγνωρίσουν: για παράδειγμα, σπασμωδικές κινήσεις, αλλαγές στον τόνο του δέρματος, περίεργο ή καθόλου βλεφάρισμα κ.ο.κ.», συνέχισε.
Η συνεχής παρακολούθηση των χρηματικών ροών στο Dark web, μας δίνει πολύτιμες πληροφορίες για τη βιομηχανία των deepfake, επιτρέποντας στους ερευνητές να παρακολουθούν τις τελευταίες τάσεις και δραστηριότητες των απειλητικών φορέων σε αυτόν τον χώρο. Με την παρακολούθηση του darknet, οι ερευνητές μπορούν να αποκαλύψουν νέα εργαλεία, υπηρεσίες και αγορές που χρησιμοποιούνται για τη δημιουργία και τη διανομή deepfakes. Αυτός ο τύπος παρακολούθησης αποτελεί κρίσιμο στοιχείο της έρευνας για τα deepfake και συμβάλλει στη βελτίωση της κατανόησης του εξελισσόμενου τοπίου απειλών. Η υπηρεσία Digital Footprint Intelligence της Kaspersky περιλαμβάνει αυτό το είδος παρακολούθησης για να βοηθήσει τους πελάτες της να παραμείνουν μπροστά από τις εξελίξεις όσον αφορά τις απειλές που σχετίζονται με τα deepfake.
- Δημοφιλέστερες Ειδήσεις Κατηγορίας Οικονομία
- Τελειώνει η ασφαλιστική ικανότητα για οφειλέτες ΕΦΚΑ-ΟΓΑ-ΕΟΠΥΥ
- Χάλεπ: Σκοτώνετε την καριέρα μου
- Ρέθυμνο: Έτοιμη η ΜΕΑ Αμαρίου - Θα επεξεργάζεται 43.000 τόνους αποβλήτων κι οργανικών (φωτο+video)
- Παράταση υποβολής αιτήσεων τρίτου κύκλου προγράμματος νέων θέσεων εργασίας της ΔΥΠΑ στις λιγνιτικές περιοχές
- Tina Turner: Σε ποιον πιλότο F1 αφιέρωσε το τραγούδι "Simply the Best"
- Morgan Stanley: Top pick η Ελλάδα – Έρχεται η επενδυτική βαθμίδα, overweight στις ελληνικές μετοχές
- Σε νέο χαμηλό η τιμή του φυσικού αερίου στην Ευρώπη
- Έκθεση Eurostat: Πρόοδος σε τρεις στόχους βιώσιμης ανάπτυξης, στασιμότητα στη δράση για το Κλίμα
- Η ανακοίνωση της ΟΣΥ για ανάρμοστη συμπεριφορά οδηγού της
- QatarGate: Χωρίς βραχιολάκι και με περιοριστικούς όρους η Εύα Καϊλή
- Δημοφιλέστερες Ειδήσεις BankWars
- Deepfake: Τα τρία απειλητικά σενάρια που αντιμετωπίζουν οι χρήστες το 2023
- Morgan Stanley: Overweight στις ελληνικές μετοχές – Τι εκτιμά για οικονομία, εταιρικά κέρδη και αποτιμήσεις
- Γαλάτσι: Κυκλοφοριακές ρυθμίσεις για δύο μήνες λόγω των έργων του μετρό
- Σέρρες: Κάηκε ολοσχερώς τουριστικό λεωφορείο – Εικόνες
- Lamda Development: Εντός του έτους ξεκινούν οι εργασίες της Riviera Galleria – Στο Ελληνικό ο Kengo Kuma
- DBRS: Θέτει υπό αναθεώρηση την αξιολόγηση ΑΑΑ των ΗΠΑ με αρνητικό outlook
- Γερμανία: Φάκελος με λευκή σκόνη στο γραφείο του υπουργού Οικονομικών Ρ. Χάμπεκ
- Qatargate: Ελεύθερη χωρίς βραχιολάκι αλλά υπό δικαστικό έλεγχο η Εύα Καϊλή
- Τελευταία Νέα BankWars
- Deepfake: Τα τρία απειλητικά σενάρια που αντιμετωπίζουν οι χρήστες το 2023
- Lamda Development: Εντός του έτους ξεκινούν οι εργασίες της Riviera Galleria – Στο Ελληνικό ο Kengo Kuma
- Γερμανία: Φάκελος με λευκή σκόνη στο γραφείο του υπουργού Οικονομικών Ρ. Χάμπεκ
- DBRS: Θέτει υπό αναθεώρηση την αξιολόγηση ΑΑΑ των ΗΠΑ με αρνητικό outlook
- Qatargate: Ελεύθερη χωρίς βραχιολάκι αλλά υπό δικαστικό έλεγχο η Εύα Καϊλή
- Σέρρες: Κάηκε ολοσχερώς τουριστικό λεωφορείο – Εικόνες
- Γαλάτσι: Κυκλοφοριακές ρυθμίσεις για δύο μήνες λόγω των έργων του μετρό
- Morgan Stanley: Overweight στις ελληνικές μετοχές – Τι εκτιμά για οικονομία, εταιρικά κέρδη και αποτιμήσεις
- Αύξηση 8,4% στις τιμές οικοδομικών υλικών τον Απρίλιο
- ΙΕΑ: Οι επενδύσεις στην ηλιακή ενέργεια θα ξεπεράσουν για πρώτη φορά αυτές στην παραγωγή πετρελαίου
- Τελευταία Νέα Κατηγορίας Οικονομία
- Ο κόκκινος ρόμβος συναντά την «Πράσινη Κόλαση»: Η AudiSportGmbH γιορτάζει τα 40 της χρόνια
- Η Πρώτη Λέσχη Επιχειρηματικών Αγγέλων στον Τομέα της Υψηλής Τεχνολογίας (Tech Angel Group) στην Ελλάδα
- Tina Turner: Σε ποιον πιλότο F1 αφιέρωσε το τραγούδι "Simply the Best"
- Ν. Δένδιας: Είμαι εξαιρετικά περήφανος για το τι έγινε στο ΥΠΕΞ τα τέσσερα χρόνια
- Ν. Δένδιας: Δηλώνει περήφανος για το έργο του στο ΥΠΕΞ
- Έκθεση Eurostat: Πρόοδος σε τρεις στόχους βιώσιμης ανάπτυξης, στασιμότητα στη δράση για το Κλίμα
- ΗΠΑ: Υποχώρηση των νέων επιδομάτων ανεργίας - Κάτω από τις εκτιμήσεις
- Πόλεμος: Τα F-16 δεν είναι «game changer»
- Φιλοκουρδικά κόμματα επιβεβαιώνουν την υποστήριξή τους στον Κιλιτσντάρογλου
- DBRS: Υπό αναθεώρηση το ΑΑΑ των ΗΠΑ - Αρνητικό outlook