deepfake voice scams 7 18
 Η κλωνοποίηση της φωνής κάποιου είναι πιο εύκολη από ποτέ. D-Keine/iStock μέσω Getty Images

Μόλις επιστρέψατε σπίτι μετά από μια κουραστική μέρα στη δουλειά και ετοιμάζεστε να καθίσετε για δείπνο όταν ξαφνικά το τηλέφωνό σας αρχίζει να βουίζει. Στην άλλη άκρη είναι ένα αγαπημένο πρόσωπο, ίσως ένας γονιός, ένα παιδί ή ένας παιδικός φίλος, που σας παρακαλεί να του στείλετε χρήματα αμέσως.

Τους κάνεις ερωτήσεις, προσπαθώντας να καταλάβεις. Υπάρχει κάτι απίθανο στις απαντήσεις τους, οι οποίες είναι είτε ασαφείς είτε εκτός χαρακτήρα, και μερικές φορές υπάρχει μια περίεργη καθυστέρηση, σχεδόν σαν να σκέφτονταν λίγο πολύ αργά. Ωστόσο, είστε βέβαιοι ότι σίγουρα μιλάει το αγαπημένο σας πρόσωπο: Αυτή είναι η φωνή του που ακούτε και το αναγνωριστικό καλούντος δείχνει τον αριθμό του. Μιλώντας για το παράξενο στον πανικό τους, στέλνεις ευσυνείδητα τα χρήματα στον τραπεζικό λογαριασμό που σου παρέχουν.

Την επόμενη μέρα, τους καλείτε πίσω για να βεβαιωθείτε ότι όλα είναι εντάξει. Το αγαπημένο σας πρόσωπο δεν έχει ιδέα για τι πράγμα μιλάτε. Αυτό οφείλεται στο ότι δεν σας κάλεσαν ποτέ – σας ξεγέλασε η τεχνολογία: μια βαθιά ψεύτικη φωνή. Χιλιάδες άνθρωποι ήταν απατήθηκε με αυτόν τον τρόπο το 2022.

Η δυνατότητα κλωνοποίησης της φωνής ενός ατόμου είναι όλο και πιο προσιτή σε οποιονδήποτε διαθέτει υπολογιστή.


innerself subscribe graphic


 

As ασφάλεια του υπολογιστή ερευνητές, βλέπουμε ότι οι συνεχείς εξελίξεις στους αλγόριθμους βαθιάς μάθησης, την επεξεργασία ήχου και τη μηχανική, καθώς και τη δημιουργία συνθετικής φωνής έχουν σημάνει ότι είναι όλο και πιο δυνατό να προσομοιώνουν πειστικά τη φωνή ενός ατόμου.

Ακόμη χειρότερα, τα chatbots όπως το ChatGPT αρχίζουν να δημιουργούν ρεαλιστικά σενάρια με προσαρμοστικές απαντήσεις σε πραγματικό χρόνο. Με συνδυάζοντας αυτές τις τεχνολογίες με τη δημιουργία φωνής, ένα deepfake μετατρέπεται από στατική ηχογράφηση σε ένα ζωντανό, ρεαλιστικό avatar που μπορεί να κάνει πειστικά μια τηλεφωνική συνομιλία.

Κλωνοποίηση φωνής

Η δημιουργία ενός συναρπαστικού deepfake υψηλής ποιότητας, είτε βίντεο είτε ήχου, δεν είναι το πιο εύκολο πράγμα. Απαιτεί πληθώρα καλλιτεχνικών και τεχνικών δεξιοτήτων, ισχυρό υλικό και ένα αρκετά μεγάλο δείγμα της φωνής-στόχου.

Υπάρχει ένας αυξανόμενος αριθμός υπηρεσιών που προσφέρονται σε παράγουν κλώνους φωνής μέτριας έως υψηλής ποιότητας έναντι αμοιβής, και ορισμένα εργαλεία φωνητικής ψεύτικης φωνής χρειάζονται ένα δείγμα μόνο ένα λεπτό, ή ακόμη και μόλις λίγα δευτερόλεπτα, για να δημιουργήσετε έναν κλώνο φωνής που θα μπορούσε να είναι αρκετά πειστικός για να ξεγελάσει κάποιον. Ωστόσο, για να πείσετε ένα αγαπημένο σας πρόσωπο - για παράδειγμα, να το χρησιμοποιήσετε σε μια απάτη πλαστοπροσωπίας - πιθανότατα θα χρειαζόταν ένα σημαντικά μεγαλύτερο δείγμα.

Οι ερευνητές κατάφεραν να κλωνοποιήσουν φωνές με μόλις πέντε δευτερόλεπτα ηχογράφησης.

 

Προστασία από απάτες και παραπληροφόρηση

Με όλα αυτά που λέγονται, εμείς στο DeFake Project του Ινστιτούτου Τεχνολογίας του Ρότσεστερ, του Πανεπιστημίου του Μισισιπή και του Πολιτειακού Πανεπιστημίου του Μίσιγκαν και άλλοι ερευνητές εργάζονται σκληρά για να μπορέσουν να ανιχνεύσουν τα βαθιά ψεύτικα βίντεο και ήχου και να περιορίσουν τη ζημιά που προκαλούν. Υπάρχουν επίσης απλές και καθημερινές ενέργειες που μπορείτε να κάνετε για να προστατεύσετε τον εαυτό σας.

Για ορεκτικά, φωνητικό ψάρεμα, ή "vising", απάτες όπως αυτή που περιγράφηκε παραπάνω είναι οι πιο πιθανές φωνητικές πλαστογραφίες που μπορεί να συναντήσετε στην καθημερινή ζωή, τόσο στη δουλειά όσο και στο σπίτι. Το 2019, ένα εταιρεία ενέργειας εξαπατήθηκε από 243,000 δολάρια ΗΠΑ όταν οι εγκληματίες προσομοίωσαν τη φωνή του αφεντικού της μητρικής εταιρείας για να διατάξουν έναν υπάλληλο να μεταφέρει κεφάλαια σε έναν προμηθευτή. Το 2022, οι άνθρωποι ήταν απάτη από περίπου 11 εκατομμύρια δολάρια με προσομοιωμένες φωνές, συμπεριλαμβανομένων στενών, προσωπικών συνδέσεων.

Τι μπορείτε να κάνετε;

Να προσέχετε τις απροσδόκητες κλήσεις, ακόμη και από άτομα που γνωρίζετε καλά. Αυτό δεν σημαίνει ότι πρέπει να προγραμματίζετε κάθε κλήση, αλλά βοηθάει τουλάχιστον να στείλετε email ή μήνυμα κειμένου εκ των προτέρων. Επίσης, μην βασίζεστε στην αναγνώριση κλήσης, αφού μπορεί επίσης να πλαστογραφηθεί. Για παράδειγμα, εάν λάβετε μια κλήση από κάποιον που ισχυρίζεται ότι εκπροσωπεί την τράπεζά σας, κλείστε το τηλέφωνο και καλέστε απευθείας την τράπεζα για να επιβεβαιώσετε τη νομιμότητα της κλήσης. Φροντίστε να χρησιμοποιήσετε τον αριθμό που έχετε σημειώσει, αποθηκεύσει στη λίστα επαφών σας ή που μπορείτε να βρείτε στο Google.

Επιπλέον, να είστε προσεκτικοί με τα προσωπικά σας στοιχεία ταυτοποίησης, όπως τον αριθμό κοινωνικής ασφάλισης, τη διεύθυνση κατοικίας, την ημερομηνία γέννησης, τον αριθμό τηλεφώνου, το μεσαίο όνομα και ακόμη και τα ονόματα των παιδιών και των κατοικίδιων σας. Οι απατεώνες μπορούν να χρησιμοποιήσουν αυτές τις πληροφορίες για να μιμηθούν την ταυτότητα σας σε τράπεζες, μεσίτες και άλλους, πλουτίζοντας τους εαυτούς τους ενώ σας χρεοκοπούν ή καταστρέφοντας την πίστωσή σας.

Εδώ είναι μια άλλη συμβουλή: γνωρίστε τον εαυτό σας. Συγκεκριμένα, γνωρίζετε τις διανοητικές και συναισθηματικές προκαταλήψεις και τα τρωτά σας σημεία. Αυτή είναι μια καλή συμβουλή ζωής γενικά, αλλά είναι το κλειδί για να προστατεύσετε τον εαυτό σας από χειραγώγηση. Οι απατεώνες συνήθως επιδιώκουν να εξαπατήσουν και στη συνέχεια να λεηλατήσουν τις οικονομικές σας ανησυχίες, τις πολιτικές σας προσκολλήσεις ή άλλες τάσεις, όποιες κι αν είναι αυτές.

Αυτή η εγρήγορση είναι επίσης μια αξιοπρεπής άμυνα ενάντια στην παραπληροφόρηση που χρησιμοποιεί φωνητικά ψεύτικα. Τα Deepfakes μπορούν να χρησιμοποιηθούν για να επωφεληθούν από το δικό σας προκατάληψη επιβεβαίωσης, ή τι έχετε την τάση να πιστεύετε για κάποιον.

Αν ακούσετε ένα σημαντικό άτομο, είτε από την κοινότητά σας είτε από την κυβέρνηση, να λέει κάτι που είτε του φαίνεται πολύ αχαρακτηριστικό είτε επιβεβαιώνει τις χειρότερες υποψίες σας για αυτό, θα ήταν φρόνιμο να είστε επιφυλακτικοί.The Conversation

Σχετικά με τους συγγραφείς

Μάθιου Ράιτ, Καθηγητής Ασφάλειας Υπολογιστών, Rochester Institute of Technology και Κρίστοφερ Σβαρτς, Μεταδιδακτορικός Ερευνητικός Συνεργάτης Υπολογιστικής Ασφάλειας, Rochester Institute of Technology

Αυτό το άρθρο αναδημοσιεύθηκε από το Η Συνομιλία υπό την άδεια Creative Commons. Διαβάστε το αρχικό άρθρο.