Απάτη με μεταφορά χρημάτων αποκαλύπτει τους κινδύνους των deepfakes 

Χρησιμοποίησαν τη φωνή του CEO της εταιρίας

Απάτη με μεταφορά χρημάτων αποκαλύπτει τους κινδύνους των deepfakes

Τα deepfake videos είναι ένα θέμα που απασχολεί όλο και περισσότερο τις κυβερνήσεις, με πολλές να λαμβάνουν μέτρα και να πιέζουν τις εταιρίες τεχνολογίας για τρόπους αναγνώρισής τους, αφού η αληθοφάνεια τους μπορεί να δημιουργήσει πολλά προβλήματα. Ίσως όμως πρέπει να στρέψουν την προσοχή τους και στον deepfake ήχο, αφού φαίνεται ως ιδανική μέθοδος για απάτες, σύμφωνα τουλάχιστον με ένα πρόσφατο περιστατικό.

Ο CEO μιας εταιρίας ενέργειας στο Ηνωμένο Βασίλειο λοιπόν ξεγελάστηκε και μετέφερε €220.000 σε έναν απατεώνα, πιστεύοντας πως ήταν ο CEO από τη μητρική εταιρία στη Γερμανία. Χρησιμοποιώντας τεχνητή νοημοσύνη, ο επιτήδειος αναπαρήγαγε τη φωνή του CEO ζητώντας το προαναφερθέν ποσό να μεταφερθεί σε έναν προμηθευτή από την Ουγγαρία μέσα σε μία ώρα. Το θύμα, αναγνωρίζοντας τη φωνή του CEO ανταποκρίθηκε.

Όπως δήλωσε αργότερα, πίστεψε πως η φωνή προέρχεται από τον CEO επειδή είχε την ίδια γερμανική προφορά των Αγγλικών και την ίδια “μελωδία”. Η απληστία του απατεώνα όμως χάλασε την κομπίνα, αφού κάλεσε και τρίτη φορά για να ζητήσει περισσότερα χρήματα, αυτή τη φορά όμως η κλήση έγινε από τηλέφωνο με διαφορετικό κωδικό χώρας, κάτι που έβαλε σε σκέψεις το θύμα, το οποίο δε συμμορφώθηκε με τις εντολές. Παρόλα αυτά, ο ένοχος δε βρέθηκε ποτέ και τα λεφτά έκαναν φτερά, αφού μετά τη μεταφορά στου Ουγγρικό λογαριασμό, μεταφέρθηκαν στο Μεξικό και από εκεί σε διάφορες άλλες τοποθεσίες.

Τα ηχητικά deepfakes γίνονται ολοένα και περισσότερο επικίνδυνα. Πρόσφατη επίδειξη της τεχνολογίας από την εταιρία τεχνητής νοημοσύνης Desa, αναπαρήγαγε τη φωνή του διάσημου podcaster Joe Rogan με τεράστια επιτυχία.

1 comment(s)