Καταπολέμηση της τεχνητής νοημοσύνης με AI Fraud Monitoring για Deepfake Applications - KDnuggets

Καταπολέμηση της τεχνητής νοημοσύνης με την παρακολούθηση απάτης με AI για εφαρμογές Deepfake – KDnuggets

Κόμβος πηγής: 2667255

Καταπολέμηση της τεχνητής νοημοσύνης με AI Fraud Monitoring για εφαρμογές Deepfake
Φωτογραφία Τίμα Μιροσνιτσένκο
 

Τα Deepfakes είναι ένα μεγάλο θέμα συζήτησης στην κοινότητα της επιστήμης δεδομένων εδώ και μερικά χρόνια. Πίσω στο 2020, το MIT Technology Review υπέθεσε ότι τα βαθιά ψεύτικα είχαν φτάσει στο «σημείο αιχμής για κύρια χρήση».

Τα δεδομένα σίγουρα το επιβεβαιώνουν. ο Wall Street Journal ανέφερε ότι λιγότερα από 10,000 deepfakes βρέθηκαν στο Διαδίκτυο το 2018. Αυτοί οι αριθμοί ανέρχονται πλέον σε εκατομμύρια και υπάρχουν πολλά πραγματικά παραδείγματα deep fakes που χρησιμοποιούνται τόσο για σύγχυση και παραπληροφόρηση όσο και για τη διαιώνιση της οικονομικής απάτης. 

Οι τεχνικές Deepfake παρέχουν συνολικά στους εγκληματίες του κυβερνοχώρου πολλές εξελιγμένες επιλογές.

Ξεπερνούν πολύ την ικανότητα εισαγωγής της εικόνας μιας διασημότητας σε διαφημιστικό υλικό για μια «απαρατήρητη» προσφορά Bitcoin, η οποία – φυσικά – αποδεικνύεται απάτη. Τα Deepfake βίντεο, συγκεκριμένα, βρίσκονται στο ραντάρ των απατεώνων. Τους παρέχουν έναν τρόπο να περάσουν από αυτοματοποιημένους ελέγχους ταυτότητας και KYC και έχουν αποδειχθεί τρομακτικά αποτελεσματικοί.

Τον Μάιο 2022, Η Verge ανέφερε ότι «τεστ ζωντάνιας" που χρησιμοποιείται από τράπεζες και άλλα ιδρύματα για να βοηθήσει στην επαλήθευση της ταυτότητας των χρηστών μπορεί εύκολα να εξαπατηθεί από τα βαθιά ψεύτικα. Η σχετική μελέτη διαπίστωσε ότι το 90% των συστημάτων επαλήθευσης ταυτότητας που δοκιμάστηκαν ήταν ευάλωτα.

Ποια είναι λοιπόν η απάντηση; Μπαίνουμε σε μια εποχή όπου οι εγκληματίες του κυβερνοχώρου μπορούν εύκολα να χρησιμοποιήσουν βαθιά ψεύτικη τεχνολογία για να ξεγελάσουν τα μέτρα ασφαλείας που χρησιμοποιούν τα χρηματοπιστωτικά ιδρύματα; Θα πρέπει τέτοιες επιχειρήσεις να εγκαταλείψουν τα αυτοματοποιημένα συστήματά τους και να επιστρέψουν σε χειροκίνητους, ανθρώπινους ελέγχους;

Η απλή απάντηση είναι «μάλλον όχι». Ακριβώς όπως οι εγκληματίες μπορούν να κάνουν χρήση της αύξησης Προόδους AI, το ίδιο μπορούν και οι εταιρείες που στοχεύουν. Ας δούμε τώρα πώς οι ευάλωτες επιχειρήσεις μπορούν να καταπολεμήσουν την τεχνητή νοημοσύνη με AI.

Τα Deepfakes παράγονται χρησιμοποιώντας μια σειρά τεχνικών τεχνητής νοημοσύνης, όπως:

  • γενετικά εχθρικά δίκτυα (GANs) 
  • ζεύγη κωδικοποιητή/αποκωδικοποιητή
  • μοντέλα κίνησης πρώτης τάξης

Αυτές οι τεχνικές μπορεί, εκ πρώτης όψεως, να ακούγονται σαν το αποκλειστικό προϊόν της κοινότητας μηχανικής μάθησης, με υψηλά εμπόδια εισόδου και ανάγκη για εξειδικευμένες τεχνικές γνώσεις. Ωστόσο, όπως και άλλα στοιχεία της τεχνητής νοημοσύνης, έχουν γίνει πολύ πιο προσιτά με την πάροδο του χρόνου.

Τα χαμηλού κόστους εργαλεία εκτός ραφιού επιτρέπουν πλέον σε μη τεχνικούς χρήστες να δημιουργούν βαθιά ψεύτικα, όπως οποιοσδήποτε μπορεί να εγγραφεί στο OpenAI και να δοκιμάσει τις δυνατότητες του ChatGPT.

Μόλις το 2020, το Παγκόσμιο Οικονομικό Φόρουμ ανέφερε ότι το κόστος παραγωγής ενός «υπερσύγχρονηΤο deepfake είναι κάτω από 30,000 $. Αλλά το 2023, ο καθηγητής της Σχολής Wharton, Ethan Mollick, αποκάλυψε, μέσω μιας ανάρτησης στο Twitter, ότι είχε δημιουργήσει ένα βαθύ ψεύτικο βίντεο ο ίδιος παραδίδει μια διάλεξη σε λιγότερο από έξι λεπτά.

Η συνολική δαπάνη του Mollick ήταν 10.99 $. Χρησιμοποίησε μια υπηρεσία που ονομάζεται ElevenLabs για να μιμηθεί σχεδόν τέλεια τη φωνή του, με κόστος 5 $. Μια άλλη υπηρεσία που ονομάζεται D-ID, με 5.99 $ το μήνα, δημιούργησε ένα βίντεο βασισμένο μόνο σε ένα σενάριο και μια φωτογραφία. Χρησιμοποίησε ακόμη και το ChatGPT για να δημιουργήσει το ίδιο το σενάριο.

Όταν άρχισαν να εμφανίζονται για πρώτη φορά τα deepfakes, η κύρια εστίαση ήταν στα ψεύτικα πολιτικά βίντεο (και στην ψεύτικη πορνογραφία). Από τότε, ο κόσμος έχει δει:

  • Το BuzzFeedVideos δημιουργεί μια βαθιά ψεύτικη ανακοίνωση δημόσιας υπηρεσίας «εμφανίζει» τον Μπαράκ Ομπάμα, τον οποίο υποδύεται ο ηθοποιός Τζόρντον Πιλ.
  • Ένα βαθύ ψεύτικο βίντεο στο YouTube που υποτίθεται ότι δείχνει τον Ντόναλντ Τραμπ να λέει μια ιστορία για έναν τάρανδο.
  • Ένα βαθύ ψεύτικο βίντεο της Χίλαρι Κλίντον που προβλήθηκε στο Saturday Night Live, όταν στην πραγματικότητα υποδυόταν ένα μέλος του καστ.

Ενώ αυτά τα παραδείγματα δείχνουν τη «διασκεδαστική» πλευρά των deepfakes και ίσως παρέχουν ένα τράνταγμα της πραγματικότητας ως προς τις δυνατότητες της τεχνολογίας, οι απατεώνες δεν έχασαν καθόλου χρόνο στη χρήση τους για κακόβουλους σκοπούς. 

Τα πραγματικά παραδείγματα απάτης, που διαιωνίζονται με τεχνικές deepfake, είναι πολλά.

Οι απώλειες που οφείλονται σε βαθιά ψεύτικες απάτες κυμαίνονται από εκατοντάδες χιλιάδες έως πολλά εκατομμύρια. Το 2021, μια απάτη κλωνοποίησης φωνής με τεχνητή νοημοσύνη χρησιμοποιήθηκε για τη διευθέτηση δόλιων τραπεζικών μεταφορών ύψους 35 εκατομμυρίων δολαρίων. Αυτό ήταν μια τεράστια οικονομική ανταμοιβή που δεν ήταν καν απαιτούν τη χρήση βίντεο.

Η ποιότητα της εξόδου AI, ειδικά του βίντεο, μπορεί να ποικίλλει πάρα πολύ. Ορισμένα βίντεο είναι προφανώς ψεύτικα για τον άνθρωπο. Όμως, όπως αναφέρθηκε παραπάνω, τα αυτοματοποιημένα συστήματα, όπως αυτά που χρησιμοποιούν οι τράπεζες και το fintech, έχουν αποδειχτεί εύκολα εξαπατημένα στο παρελθόν.

Η ισορροπία είναι πιθανό να αλλάξει περαιτέρω καθώς οι δυνατότητες AI συνεχίζουν να βελτιώνονται. Μια πρόσφατη εξέλιξη είναι η ενσωμάτωση της «αντιεγκληματολογίας», όπου «στοχευμένος αόρατος «θόρυβος» προστίθεται στα βαθιά ψεύτικα, σε μια προσπάθεια να εξαπατηθούν οι μηχανισμοί ανίχνευσης.

Τι μπορεί να γίνει λοιπόν;

Ακριβώς όπως οι απατεώνες επιδιώκουν να χρησιμοποιήσουν την πιο πρόσφατη τεχνολογία AI για οικονομικό όφελος, οι επιχειρήσεις όπως οι εταιρείες τεχνολογίας εργάζονται σκληρά για να βρουν τρόπους να χρησιμοποιήσουν την τεχνολογία για να πιάσουν εγκληματίες.

Ακολουθούν μερικά παραδείγματα εταιρειών που χρησιμοποιούν τεχνητή νοημοσύνη για την καταπολέμηση της τεχνητής νοημοσύνης:

Στα τέλη του 2022, η Intel κυκλοφόρησε ένα εργαλείο βασισμένο σε AI που ονομάζεται "FakeCatcher". Με το αναφερόμενο ποσοστό αξιοπιστίας της Intel στο 96%, χρησιμοποιεί μια τεχνολογία γνωστή ως φωτοπληθυσμογραφία (PPG).

Η τεχνολογία χρησιμοποιεί κάτι που δεν υπάρχει στα τεχνητά δημιουργημένα βίντεο: τη ροή του αίματος. Εκπαιδευμένος σε νόμιμα βίντεο, ο αλγόριθμος βαθιάς μάθησης μετρά το φως που απορροφάται ή αντανακλάται από τα αιμοφόρα αγγεία, τα οποία αλλάζουν χρώμα καθώς το αίμα κινείται στο σώμα.

Το FakeCatcher, μέρος της πρωτοβουλίας Responsible AI της Intel, περιγράφεται ως «ο πρώτος στον κόσμο βαθιά ψεύτικος ανιχνευτής σε πραγματικό χρόνο που επιστρέφει αποτελέσματα σε χιλιοστά του δευτερολέπτου». Είναι μια καινοτόμος τεχνολογία που αναζητά σημάδια ότι το άτομο που εμφανίζεται σε ένα βίντεο είναι πραγματικά ανθρώπινο. Αναζητά κάτι που είναι «σωστό», αντί να αναλύει δεδομένα για να επισημάνει κάτι που είναι «λάθος». Έτσι δείχνει την πιθανότητα ψεύτικο.

Εν τω μεταξύ, επιστήμονες υπολογιστών του Πανεπιστημίου του Μπάφαλο (UB) εργάζονται πάνω σε μια δική τους τεχνολογία ανίχνευσης βαθιάς ψευδούς. Χρησιμοποιεί κάτι που οι μανιώδεις παίκτες PC γνωρίζουν ότι απαιτεί τεράστια επεξεργαστική ισχύ για να μιμηθεί: το φως.

Σύμφωνα με την UB ότι είναι 94% αποτελεσματικό στις ψεύτικες φωτογραφίες, το εργαλείο AI εξετάζει τον τρόπο με τον οποίο το φως αντανακλάται στα μάτια του θέματος. Η επιφάνεια του κερατοειδούς λειτουργεί ως καθρέφτης και δημιουργεί «ανακλαστικά μοτίβα».

Η μελέτη των επιστημόνων, με τίτλο «Exposing GAN-Generated Faces Using Inconsistent Corneal Specular Highlights», δείχνει ότι «τα πρόσωπα που συνθέτουν το GAN μπορούν να εκτεθούν με τις ασυνεπείς κατοπτρικές ανταύγειες του κερατοειδούς μεταξύ δύο ματιών».

Υποδηλώνει ότι θα ήταν «μη τετριμμένο» για τα συστήματα τεχνητής νοημοσύνης να μιμηθούν τα γνήσια σημεία. Οι παίκτες υπολογιστών, οι οποίοι συχνά επενδύουν στις πιο πρόσφατες κάρτες γραφικών με ανίχνευση ακτίνων για να βιώσουν ρεαλιστικά εφέ φωτισμού, θα αναγνωρίσουν ενστικτωδώς τις προκλήσεις εδώ.

Ίσως η μεγαλύτερη πρόκληση ανίχνευσης απάτης είναι το ατελείωτο παιχνίδι «γάτας με το ποντίκι» μεταξύ των απατεώνων και εκείνων που εργάζονται για να τους αποτρέψουν. Είναι πολύ πιθανό, μετά από ανακοινώσεις όπως αυτές που αναφέρονται παραπάνω, ότι οι άνθρωποι εργάζονται ήδη για την κατασκευή τεχνολογιών που μπορούν να παρακάμψουν και να νικήσουν τέτοιους μηχανισμούς ανίχνευσης.

Άλλο είναι επίσης ότι υπάρχουν τέτοιοι μηχανισμοί, αλλά άλλο είναι να τους βλέπεις να ενσωματώνονται συστηματικά στις λύσεις που χρησιμοποιούν οι επιχειρήσεις. Νωρίτερα, αναφερθήκαμε σε μια στατιστική που πρότεινε ότι το 90% των λύσεων μπορούν να "ξεγελαστούν εύκολα". Το πιθανότερο είναι ότι τουλάχιστον ορισμένα χρηματοπιστωτικά ιδρύματα εξακολουθούν να χρησιμοποιούν τέτοια συστήματα.

Μια σοφή παρακολούθηση της απάτης Η στρατηγική απαιτεί από τις εταιρείες να κοιτάξουν πέρα ​​από τον εντοπισμό των ίδιων των απομιμήσεων. Πολλά μπορούν να γίνουν πριν ένας απατεώνας μπαίνει αρκετά σε ένα σύστημα για να συμμετάσχει σε μια διαδικασία επαλήθευσης ταυτότητας ή KYC που βασίζεται σε βίντεο. Οι προφυλάξεις που βρίσκουν θέση νωρίτερα στη διαδικασία μπορεί επίσης να περιλαμβάνουν ένα στοιχείο τεχνητής νοημοσύνης και μηχανικής μάθησης.

Για παράδειγμα, η μηχανική εκμάθηση μπορεί να χρησιμοποιηθεί τόσο για παρακολούθηση απάτης σε πραγματικό χρόνο όσο και για τη δημιουργία συνόλων κανόνων. Αυτά μπορούν να εξετάσουν ιστορικά γεγονότα απάτης, εντοπίζοντας μοτίβα που θα μπορούσαν εύκολα να αγνοηθούν από έναν άνθρωπο. Οι συναλλαγές που θεωρούνται υψηλού κινδύνου μπορούν να απορριφθούν οριστικά ή να περάσουν για μη αυτόματο έλεγχο πριν καν φτάσει ένα στάδιο όπου μπορεί να υπάρχει έλεγχος ταυτότητας – και επομένως μια ευκαιρία για έναν απατεώνα να χρησιμοποιήσει την τεχνολογία deepfake.

Όσο νωρίτερα ένα σύστημα εντοπίσει έναν κυβερνοεγκληματία, τόσο το καλύτερο. Υπάρχουν λιγότερες πιθανότητες να διαιωνίσουν ένα έγκλημα και λιγότερες για την επιχείρηση να δαπανήσει σε περαιτέρω ελέγχους. Οι έλεγχοι ταυτότητας που βασίζονται σε βίντεο είναι δαπανηροί, ακόμη και χωρίς την ενσωμάτωση τεχνολογίας AI για την ανίχνευση σε βάθος απομιμήσεων.

Εάν μπορέσουν να εντοπιστούν οι απατεώνες πριν φτάσουν τόσο μακριά, με τεχνικές όπως το ψηφιακό αποτύπωμα, θα μείνουν περισσότεροι διαθέσιμοι πόροι για τη βελτιστοποίηση των ελέγχων σε πιο οριακές περιπτώσεις.

Η ίδια η φύση της μηχανικής μάθησης θα πρέπει να υπαγορεύει ότι, με την πάροδο του χρόνου, γίνεται καλύτερη στον εντοπισμό ανωμαλιών και στην καταπολέμηση της απάτης. Τα συστήματα που λειτουργούν με τεχνητή νοημοσύνη μπορούν να μάθουν από νέα πρότυπα και ενδεχομένως να φιλτράρουν τις δόλιες συναλλαγές σε πρώιμο στάδιο της διαδικασίας.

Όταν πρόκειται ειδικά για deepfakes, το παραπάνω παράδειγμα δίνει έναν ιδιαίτερο λόγο ελπίδας. Οι επιστήμονες έχουν βρει έναν τρόπο να ανιχνεύουν τη συντριπτική πλειοψηφία των deepfakes χρησιμοποιώντας αντανακλάσεις φωτός. Εξελίξεις όπως αυτή αντιπροσωπεύουν ένα σημαντικό βήμα προς τα εμπρός στην πρόληψη της απάτης και ένα σημαντικό εμπόδιο για τους εγκληματίες στον κυβερνοχώρο.

Θεωρητικά, είναι πολύ πιο εύκολο να αναπτυχθεί μια τέτοια τεχνολογία ανίχνευσης από ό,τι για τους απατεώνες να βρουν έναν τρόπο να την παρακάμψουν – αναπαράγοντας τη συμπεριφορά του φωτός, για παράδειγμα, στην ταχύτητα και στην κλίμακα. Το παιχνίδι «γάτας και ποντικιού» φαίνεται πιθανό να συνεχιστεί αιώνια, αλλά η μεγάλη τεχνολογία και τα μεγάλα οικονομικά έχουν τους πόρους και τις βαθιές τσέπες για – θεωρητικά τουλάχιστον – να παραμείνουν ένα μικρό βήμα μπροστά.
 
 
Τζίμι Φονγκ είναι ο CCO του SEON και φέρνει τη σε βάθος εμπειρία του στην καταπολέμηση της απάτης για να βοηθήσει τις ομάδες απάτης παντού.
 

Σφραγίδα ώρας:

Περισσότερα από KDnuggets