Balancing Act: The Value of Human Expertise in the Age of Generative AI - DATAVERSITY

Balancing Act: The Value of Human Expertise in the Age of Generative AI – DATAVERSITY

Κόμβος πηγής: 3052574

Οι άνθρωποι θεωρούνται ο πιο αδύναμος κρίκος της επιχείρησης όσον αφορά την ασφάλεια. Δικαίως, όπως άνω του 95% περιστατικά κυβερνοασφάλειας προκαλούνται από ανθρώπινο λάθος. Οι άνθρωποι είναι ευμετάβλητοι, λανθασμένοι και απρόβλεπτοι, καθιστώντας τους εύκολους στόχους για εγκληματίες του κυβερνοχώρου που θέλουν να εισέλθουν στα συστήματα των οργανισμών.  

Αυτό κάνει την εξάρτησή μας από μηχανές πολύ πιο σημαντική. Μέχρι αυτό το σημείο, ήμασταν σε θέση να εμπιστευόμαστε μηχανές να λειτουργούν με κώδικα ως την αλήθεια. Παρόλο που μπορούν να τεθούν σε κίνδυνο λόγω τρωτών σημείων στον κώδικα ή μέσω των κοινωνικών ελαττωμάτων των ανθρώπινων χειριστών τους, τα προβλήματα συνήθως αντιμετωπίζονται με μια ξεκάθαρη λύση. 

Ωστόσο, με την άνοδο του γενετική AI (GenAI) και μεγάλα γλωσσικά μοντέλα (LLMs), οι οργανισμοί αντιμετωπίζουν τώρα επιθέσεις κοινωνικής μηχανικής που εξαπατούν την τεχνητή νοημοσύνη να κάνει πράγματα που δεν προοριζόταν να κάνει. Καθώς εκφορτώνουμε περισσότερα στο AI, θα είναι ενδιαφέρον να δούμε αυτά τα νέα μοτίβα επίθεσης να παίζουν.

Μπροστά σε αυτό το δίλημμα, εναπόκειται και πάλι στους ανθρώπους να πλοηγηθούν σε αυτό το περίπλοκο και εξελισσόμενο τοπίο ασφάλειας τεχνητής νοημοσύνης. Αυτό καλεί τους CISO να κοινοποιήσουν με σαφήνεια τα οφέλη καθώς και τις ελλείψεις της τεχνητής νοημοσύνης και να αναγνωρίσουν τη μακρά λίστα ζητημάτων ασφαλείας που συνδέονται με τα προϊόντα και τις δυνατότητες που λειτουργούν με τεχνητή νοημοσύνη. 

Η εσπευσμένη εφαρμογή του Generative AI φέρνει νέες προκλήσεις στον κυβερνοχώρο

Αρχικά, ένα κοινό ζήτημα όσον αφορά το GenAI και τα LLMs είναι η ευρεία υπερβολική εξάρτηση από το περιεχόμενο που δημιουργείται από AI. Η εμπιστοσύνη του περιεχομένου που δημιουργείται από AI χωρίς επαλήθευση ή έλεγχο για παραπλανητική ή παραπληροφόρηση χωρίς ανθρώπινη συνδρομή ή επίβλεψη μπορεί να οδηγήσει στη διάδοση λανθασμένων δεδομένων που ενημερώνουν την κακή λήψη αποφάσεων και τη μειωμένη κριτική σκέψη. Τα LLM είναι γνωστό ότι έχουν παραισθήσεις, επομένως ορισμένες από τις παραπληροφορίες μπορεί να μην προέρχονται καν από κακόβουλη πρόθεση.

Στο ίδιο πνεύμα, η ποσότητα του μη ασφαλούς κώδικα που εισάγεται μετά την εξέλιξη του GenAI θα γίνει επίσης σημαντική πρόκληση για τους CISO, αν δεν αναμένεται προληπτικά. Οι μηχανές AI είναι γνωστό ότι γράφουν buggy κώδικα με ευπάθειες ασφαλείας. Χωρίς την κατάλληλη ανθρώπινη επίβλεψη, το GenAI εξουσιοδοτεί άτομα χωρίς τα κατάλληλα τεχνικά θεμέλια για την αποστολή κώδικα. Αυτό οδηγεί σε αυξημένο κίνδυνο ασφάλειας καθ' όλη τη διάρκεια του κύκλου ζωής ανάπτυξης λογισμικού για οργανισμούς που χρησιμοποιούν ακατάλληλα αυτά τα εργαλεία.

Η διαρροή δεδομένων είναι ένα άλλο διαδεδομένο ζήτημα. Σε ορισμένες περιπτώσεις, οι εισβολείς μπορούν να χρησιμοποιήσουν την άμεση έγχυση για να εξαγάγουν ευαίσθητες πληροφορίες που έχει μάθει το μοντέλο AI από άλλο χρήστη. Πολλές φορές αυτό μπορεί να είναι αβλαβές, αλλά η κακόβουλη χρήση σίγουρα δεν αποκλείεται. Οι κακοί ηθοποιοί θα μπορούσαν σκόπιμα να διερευνήσουν το εργαλείο AI με σχολαστικά σχεδιασμένες προτροπές, με στόχο την εξαγωγή ευαίσθητων πληροφοριών που το εργαλείο έχει απομνημονεύσει, οδηγώντας στη διαρροή ευαίσθητων ή εμπιστευτικών πληροφοριών.

Το AI μπορεί να αυξήσει ορισμένα κενά κυβερνοασφάλειας, αλλά έχει σημαντικές δυνατότητες να κλείσει άλλα

Τέλος, είναι κατανοητό ότι η διάδοση των GenAI και LLMs θα υποχωρήσει κάποια από τη μείωση της επιφάνειας επίθεσης του κλάδου μας για μερικούς λόγους. Πρώτον, η δυνατότητα δημιουργίας κώδικα με το GenAI μειώνει τον πήχη του ποιος μπορεί να είναι μηχανικός λογισμικού, με αποτέλεσμα ασθενέστερο κώδικα και ακόμη πιο αδύναμα πρότυπα ασφαλείας. Δεύτερον, το GenAI απαιτεί τεράστιες ποσότητες δεδομένων, πράγμα που σημαίνει ότι η κλίμακα και ο αντίκτυπος των παραβιάσεων δεδομένων θα αυξηθούν εκθετικά. Τρίτον, όπως συμβαίνει με κάθε αναδυόμενη τεχνολογία, οι προγραμματιστές ενδέχεται να μην γνωρίζουν πλήρως τους τρόπους εκμετάλλευσης ή κατάχρησης της εφαρμογής τους. 

Ωστόσο, είναι απαραίτητο να υιοθετήσετε μια ισορροπημένη προοπτική. Ενώ η διευκόλυνση της Gen AI στη δημιουργία κώδικα μπορεί να εγείρει ανησυχίες, φέρνει επίσης θετικά χαρακτηριστικά στο τοπίο της κυβερνοασφάλειας. Για παράδειγμα, μπορεί να εντοπίσει αποτελεσματικά τα τρωτά σημεία ασφαλείας, όπως το Cross-Site Scripting (XSS) ή η SQL injection. Αυτή η διττή φύση υπογραμμίζει τη σημασία μιας διαφοροποιημένης κατανόησης. Αντί να βλέπει την τεχνητή νοημοσύνη ως αποκλειστικά επιζήμια, δίνει έμφαση στη συμπληρωματική σχέση μεταξύ της τεχνητής νοημοσύνης και της ανθρώπινης συμμετοχής στην ασφάλεια στον κυβερνοχώρο. Οι CISO πρέπει να κατανοήσουν τους σχετικούς κινδύνους του GenAI και των LLM ενώ ταυτόχρονα διερευνούν ανθρωποκεντρικές προσεγγίσεις για την εφαρμογή του GenAI και την ενίσχυση των οργανισμών τους.

Οι άνθρωποι συλλέγουν αυτό που αφήνει πίσω του το AI

Οι CISO δεν έχουν απλώς καθήκον να ξεδιαλύνουν την πολυπλοκότητα του GenAI. Πρέπει να ανοίξουν έναν δρόμο προς τα εμπρός για την οργάνωσή τους και να δείξουν στην ηγεσία πώς ο οργανισμός τους μπορεί να συνεχίσει να ευδοκιμεί σε έναν κόσμο που κυριαρχείται από το GenAI. 

Ενώ οι τελικοί χρήστες είναι συχνά υπεύθυνοι για πολλές ευπάθειες ασφαλείας, δεν υπάρχει καλύτερη άμυνα στο έγκλημα στον κυβερνοχώρο από έναν καλά εκπαιδευμένο και με γνώμονα την ασφάλεια άνθρωπο. Ανεξάρτητα από τα εργαλεία ανίχνευσης απειλών που διαθέτει ένας οργανισμός, απλά δεν υπάρχει αντικατάσταση του ατόμου πίσω από την οθόνη όταν πρόκειται για δοκιμή λογισμικού. 

Οι οργανισμοί μπορούν να ξεπεράσουν τους εγκληματίες του κυβερνοχώρου χρησιμοποιώντας τη δύναμη του ηθικό hacking. Ενώ ορισμένοι διστάζουν να προσκαλέσουν χάκερ στο δίκτυό τους λόγω παρωχημένων παρανοήσεων, αυτοί οι νομοταγείς ειδικοί στον τομέα της κυβερνοασφάλειας είναι το καλύτερο για να αντιμετωπίσουν κακούς ηθοποιούς – επειδή, σε αντίθεση με την τεχνητή νοημοσύνη, μπορούν να μπουν μέσα στα κεφάλια των κυβερνοεπιθέσεων.

Στην πραγματικότητα, οι χάκερ συμπληρώνουν ήδη αυτοματοποιημένα εργαλεία για την καταπολέμηση των εγκληματιών του κυβερνοχώρου, με 92% του ηθικοί χάκερ λέγοντας ότι μπορούν να βρουν τρωτά σημεία που οι σαρωτές δεν μπορούν. Αποσύροντας οριστικά το πέπλο της πειρατείας, οι ηγέτες των επιχειρήσεων μπορούν να αγκαλιάσουν το ηθικό hacking και την ανθρώπινη υποστήριξη για να επιτύχουν μια πιο αποτελεσματική ισορροπία μεταξύ της τεχνητής νοημοσύνης και των ανθρώπινων ειδικών στην καταπολέμηση του σύγχρονου εγκλήματος στον κυβερνοχώρο. Το πρόσφατο μας Αναφορά ασφαλείας που υποστηρίζεται από χάκερ το υπογραμμίζει αυτό, με το 91% των πελατών μας να λέει ότι οι χάκερ παρέχουν πιο αποτελεσματικές και πολύτιμες αναφορές ευπάθειας από τις λύσεις τεχνητής νοημοσύνης ή σάρωσης. Καθώς η τεχνητή νοημοσύνη συνεχίζει να διαμορφώνει το μέλλον μας, η ηθική κοινότητα των χάκερ θα παραμείνει αφοσιωμένη στη διασφάλιση της ασφαλούς ενσωμάτωσής της.

Ο συνδυασμός του αυτοματισμού με ένα δίκτυο υψηλής εξειδίκευσης χάκερ σημαίνει ότι οι εταιρείες μπορούν να εντοπίσουν κρίσιμα ελαττώματα εφαρμογών προτού τα εκμεταλλευτούν. Όταν οι οργανισμοί συνδυάζουν αποτελεσματικά αυτοματοποιημένα εργαλεία ασφαλείας με ηθικό hacking, κλείνουν τα κενά στην συνεχώς εξελισσόμενη επιφάνεια ψηφιακής επίθεσης. 

Αυτό συμβαίνει επειδή οι άνθρωποι και η τεχνητή νοημοσύνη μπορούν να συνεργαστούν για να βελτιώσουν την παραγωγικότητα της ομάδας ασφαλείας: 

  1. Αναγνώριση επιφάνειας επίθεσης: Οι σύγχρονοι οργανισμοί μπορούν να αναπτύξουν μια εκτεταμένη και σύνθετη υποδομή πληροφορικής που περιλαμβάνει μια ποικιλία από εξουσιοδοτημένο και μη εγκεκριμένο υλικό και λογισμικό. Η ανάπτυξη ενός ολοκληρωμένου ευρετηρίου περιουσιακών στοιχείων πληροφορικής, όπως το λογισμικό και το υλικό, είναι σημαντική για τη μείωση των τρωτών σημείων, τον εξορθολογισμό της διαχείρισης ενημερώσεων κώδικα και την υποβοήθηση της συμμόρφωσης με τις εντολές του κλάδου. Βοηθά επίσης στον εντοπισμό και την ανάλυση των σημείων μέσω των οποίων ένας εισβολέας μπορεί να στοχεύσει έναν οργανισμό.
  2. Συνεχείς αξιολογήσεις: Προχωρώντας πέρα ​​από την ασφάλεια σημείου-σε-χρόνου, οι οργανισμοί μπορούν να συνδυάσουν την εφευρετικότητα των ειδικών σε θέματα ανθρώπινης ασφάλειας με πληροφορίες για την επιφάνεια επίθεσης σε πραγματικό χρόνο για να επιτύχουν συνεχή δοκιμή του ψηφιακού τοπίου. Οι δοκιμές συνεχούς διείσδυσης επιτρέπουν στις ομάδες IT να βλέπουν τα αποτελέσματα συνεχών προσομοιώσεων που δείχνουν πώς θα φαινόταν μια παραβίαση στο τρέχον περιβάλλον και πιθανά αδύναμα σημεία όπου οι ομάδες μπορούν να προσαρμοστούν σε πραγματικό χρόνο.
  3. Βελτιώσεις διαδικασίας: Οι έμπιστοι ανθρώπινοι χάκερ μπορούν να δώσουν στις ομάδες ασφαλείας πολύτιμες πληροφορίες σχετικά με τρωτά σημεία και στοιχεία για να βοηθήσουν στη βελτίωση της διαδικασίας.

Συμπέρασμα

Καθώς η γενετική τεχνητή νοημοσύνη συνεχίζει να εξελίσσεται με τόσο γρήγορο ρυθμό, οι CISO πρέπει να αξιοποιήσουν την κατανόησή τους για το πώς οι άνθρωποι μπορούν να συνεργαστούν για να ενισχύσουν την ασφάλεια της τεχνητής νοημοσύνης και να συγκεντρώσουν υποστήριξη από το διοικητικό συμβούλιο και την ηγετική τους ομάδα. Ως αποτέλεσμα, οι οργανισμοί μπορούν να διαθέτουν επαρκές προσωπικό και πόρους για να αντιμετωπίσουν αποτελεσματικά αυτές τις προκλήσεις. Η επίτευξη της σωστής ισορροπίας μεταξύ της γρήγορης υλοποίησης της τεχνητής νοημοσύνης και της συνολικής ασφάλειας μέσω της συνεργασίας με ηθικούς χάκερ ενισχύει το επιχείρημα για επένδυση σε κατάλληλες λύσεις που βασίζονται σε τεχνητή νοημοσύνη.

Σφραγίδα ώρας:

Περισσότερα από ΔΕΔΟΜΕΝΟΤΗΤΑ