Ο αντίκτυπος της τεχνητής νοημοσύνης στην ασφάλεια στον κυβερνοχώρο - ΔΙΑΒΟΛΗ ΔΕΔΟΜΕΝΩΝ

Ο αντίκτυπος της τεχνητής νοημοσύνης στην ασφάλεια στον κυβερνοχώρο – ΔΙΑΒΟΛΗ ΔΕΔΟΜΕΝΩΝ

Κόμβος πηγής: 2995031

Η τεχνητή νοημοσύνη έχει τραβήξει πολύ την προσοχή των μέσων ενημέρωσης για τα πάντα, από την ανάληψη των θέσεων εργασίας των ανθρώπων μέχρι τη διάδοση παραπληροφόρησης και την παραβίαση πνευματικών δικαιωμάτων, αλλά ο αντίκτυπος της τεχνητής νοημοσύνης στην ασφάλεια στον κυβερνοχώρο μπορεί να είναι το πιο πιεστικό άμεσο θέμα.

Ο αντίκτυπος της τεχνητής νοημοσύνης στις ομάδες ασφαλείας είναι αναμενόμενος διπλός. Όταν εφαρμόζεται σωστά, μπορεί να είναι ένας ισχυρός πολλαπλασιαστής δύναμης για τους επαγγελματίες της κυβερνοασφάλειας, μέσω τέτοιων μέσων όπως η επεξεργασία τεράστιων ποσοτήτων δεδομένων σε ταχύτητες υπολογιστή, η εύρεση συνδέσεων μεταξύ απομακρυσμένων σημείων δεδομένων, η ανακάλυψη μοτίβων, ο εντοπισμός επιθέσεων και η πρόβλεψη της εξέλιξης των επιθέσεων. Όμως, όπως γνωρίζουν καλά οι επαγγελματίες ασφάλειας, η τεχνητή νοημοσύνη δεν εφαρμόζεται πάντα σωστά. Εντείνει την ήδη επιβλητική σειρά απειλών για την ασφάλεια στον κυβερνοχώρο, από τον συμβιβασμό ταυτότητας και το phishing μέχρι τις επιθέσεις ransomware και αλυσίδας εφοδιασμού.

Οι CISO και οι ομάδες ασφαλείας πρέπει να κατανοήσουν τόσο τα πλεονεκτήματα όσο και τους κινδύνους της τεχνητής νοημοσύνης, κάτι που απαιτεί ουσιαστική επανεξισορρόπηση των δεξιοτήτων. Οι μηχανικοί ασφαλείας, για παράδειγμα, πρέπει να κατανοήσουν τα βασικά της μηχανικής εκμάθησης, την ποιότητα και τις προκαταλήψεις του μοντέλου, τα επίπεδα εμπιστοσύνης και τις μετρήσεις απόδοσης. Επιστήμονες δεδομένων πρέπει να μάθουν τα βασικά στοιχεία της κυβερνοασφάλειας, τα πρότυπα επιθέσεων και τη μοντελοποίηση κινδύνου για να συνεισφέρουν αποτελεσματικά στις υβριδικές ομάδες.

Τα μοντέλα AI χρειάζονται κατάλληλη εκπαίδευση για να βοηθήσουν την ασφάλεια στον κυβερνοχώρο

Το καθήκον της αντιμετώπισης του πολλαπλασιασμού των απειλών που τροφοδοτούνται από την τεχνητή νοημοσύνη εντείνει τις προκλήσεις για τους CISO και τις ήδη καταπονημένες ομάδες ασφαλείας που δεν πρέπει μόνο να αντιμετωπίσουν νέες εξελιγμένες εκστρατείες ηλεκτρονικού ψαρέματος που δημιουργούνται από έναν μεγάλο γλωσσικό μοντέλο (LLM) όπως το ChatGPT, αλλά πρέπει να ανησυχείτε για έναν μη επιδιορθωμένο διακομιστή στο DMZ που θα μπορούσε να αποτελέσει μεγαλύτερη απειλή.

Η τεχνητή νοημοσύνη, από την άλλη πλευρά, μπορεί να εξοικονομήσει πολύ χρόνο και προσπάθεια στις ομάδες για την αξιολόγηση κινδύνου και τον εντοπισμό απειλών. Μπορεί επίσης να βοηθήσει στην απόκριση – αν και αυτό πρέπει να γίνει προσεκτικά. Ένα μοντέλο τεχνητής νοημοσύνης μπορεί να σερφάρουν αναλυτές για να μάθουν πώς διαλέγουν τα περιστατικά και στη συνέχεια είτε να εκτελούν αυτές τις εργασίες μόνο του είτε να δίνουν προτεραιότητα σε περιπτώσεις για ανθρώπινη εξέταση. Αλλά οι ομάδες πρέπει να είναι σίγουρες ότι οι κατάλληλοι άνθρωποι δίνουν τις οδηγίες AI.

Πριν από χρόνια, για παράδειγμα, έτρεξα ένα πείραμα όπου έβαλα 10 αναλυτές διαφορετικών επιπέδων δεξιοτήτων να εξετάσουν 100 περιπτώσεις ύποπτης διείσδυσης δεδομένων. Δύο ανώτεροι αναλυτές προσδιόρισαν σωστά όλα τα θετικά και τα αρνητικά, τρεις λιγότερο έμπειροι αναλυτές έκαναν λάθος σχεδόν όλες τις περιπτώσεις και οι υπόλοιποι πέντε έλαβαν τυχαία αποτελέσματα. Ανεξάρτητα από το πόσο καλό είναι ένα μοντέλο τεχνητής νοημοσύνης, θα ήταν άχρηστο αν εκπαιδευόταν από μια ομάδα όπως αυτή.

Η τεχνητή νοημοσύνη είναι σαν ένα ισχυρό αυτοκίνητο: Μπορεί να κάνει θαύματα στα χέρια ενός έμπειρου οδηγού ή πολλή ζημιά στα χέρια ενός άπειρου. Αυτός είναι ένας τομέας όπου η έλλειψη δεξιοτήτων μπορεί να επηρεάσει τον αντίκτυπο της τεχνητής νοημοσύνης στον κυβερνοχώρο.

Πώς μπορούν οι CTO να επιλέξουν μια λύση AI;

Δεδομένης της διαφημιστικής εκστρατείας σχετικά με την τεχνητή νοημοσύνη, οι οργανισμοί μπορεί να μπουν στον πειρασμό να βιαστούν να υιοθετήσουν την τεχνολογία. Αλλά εκτός από τη σωστή εκπαίδευση της τεχνητής νοημοσύνης, υπάρχουν ερωτήματα που πρέπει να απαντήσουν οι ΚΟΤ, ξεκινώντας από θέματα καταλληλότητας:

  • Ταιριάζει η τεχνητή νοημοσύνη στο οικοσύστημα του οργανισμού; Αυτό περιλαμβάνει την πλατφόρμα, εξωτερικά στοιχεία, όπως μια βάση δεδομένων και μια μηχανή αναζήτησης, δωρεάν και ανοιχτού κώδικα λογισμικό και αδειοδότηση, καθώς και την ασφάλεια και τις πιστοποιήσεις του οργανισμού, τη δημιουργία αντιγράφων ασφαλείας και το failover. 
  • Η τεχνητή νοημοσύνη προσαρμόζεται στο μέγεθος της επιχείρησης;
  • Ποιες δεξιότητες απαιτούνται για την ομάδα ασφαλείας για τη διατήρηση και τη λειτουργία της τεχνητής νοημοσύνης;

Οι ΚΟΤ πρέπει επίσης να απαντούν σε ερωτήσεις ειδικά για μια λύση τεχνητής νοημοσύνης: 

  • Ποιες από τις διεκδικούμενες λειτουργίες ενός συγκεκριμένου προϊόντος τεχνητής νοημοσύνης ευθυγραμμίζονται με τους επιχειρηματικούς σας στόχους;
  • Μπορεί να επιτευχθεί η ίδια λειτουργικότητα χρησιμοποιώντας υπάρχοντα εργαλεία;
  • Ανιχνεύει πραγματικά απειλές η λύση;

Αυτή η τελευταία ερώτηση μπορεί να είναι δύσκολο να απαντηθεί, επειδή τα κακόβουλα συμβάντα κυβερνοασφάλειας συμβαίνουν σε μικρή κλίμακα σε σύγκριση με τη νόμιμη δραστηριότητα. Σε μια περιορισμένη μελέτη απόδειξης της ιδέας που χρησιμοποιεί ζωντανά δεδομένα, ένα εργαλείο τεχνητής νοημοσύνης μπορεί να μην εντοπίσει τίποτα εάν δεν υπάρχει τίποτα. Οι προμηθευτές χρησιμοποιούν συχνά συνθετικά δεδομένα ή επιθέσεις Red Team για να επιδείξουν την ικανότητα ενός AI, αλλά το ερώτημα παραμένει αν επιδεικνύει ικανότητα αληθινής ανίχνευσης ή απλώς επικυρώνει την υπόθεση βάσει της οποίας δημιουργήθηκαν οι δείκτες.

Είναι δύσκολο να προσδιοριστεί γιατί μια τεχνητή νοημοσύνη πιστεύει ότι κάτι ήταν επίθεση, επειδή οι αλγόριθμοι τεχνητής νοημοσύνης είναι ουσιαστικά μαύρα κουτιά, που ακόμα δεν μπορούν να εξηγήσουν πώς κατέληξαν σε ένα συγκεκριμένο συμπέρασμα – όπως αποδεικνύεται από την DARPA Επεξηγήσιμη τεχνητή νοημοσύνη (XAI) προγράμματος.

Μετριασμός των κινδύνων της τεχνητής νοημοσύνης

Μια λύση AI είναι τόσο καλή όσο τα δεδομένα με τα οποία λειτουργεί. Για να διασφαλιστεί η ηθική συμπεριφορά, τα μοντέλα τεχνητής νοημοσύνης θα πρέπει να εκπαιδεύονται σε ηθικά δεδομένα και όχι στη χονδρική συλλογή σκουπιδιών που υπάρχει στον Παγκόσμιο Ιστό. Και οποιοσδήποτε επιστήμονας δεδομένων γνωρίζει ότι η παραγωγή ενός καλά ισορροπημένου, αμερόληπτου, καθαρού συνόλου δεδομένων για την εκπαίδευση ενός μοντέλου είναι μια δύσκολη, κουραστική και απίθανη εργασία. 

Εξαιτίας αυτού, η διαχείριση των μοντέλων τεχνητής νοημοσύνης, συμπεριλαμβανομένων των LLMs, μπορεί τελικά να γίνει με τρόπο παρόμοιο με τον καλύτερο τρόπο που θα εξυπηρετούσαν καλύτερα την κυβερνοασφάλεια – ως εξειδικευμένα μοντέλα (σε αντίθεση με τα μοντέλα γενικού σκοπού «παντογνωσίας») που εξυπηρετούν συγκεκριμένους τομείς και εκπαιδεύονται σε δεδομένα που επιμελούνται ειδικοί στο αντικείμενο του τομέα. 

Η προσπάθεια λογοκρισίας της τεχνητής νοημοσύνης ως απάντηση στην κατακραυγή των μέσων ενημέρωσης αυτή τη στιγμή δεν θα λύσει το πρόβλημα. Μόνο η επιμελής εργασία για τη δημιουργία αξιόπιστων συνόλων δεδομένων μπορεί να το κάνει αυτό. Έως ότου οι εταιρείες τεχνητής νοημοσύνης – και τα VC που τις υποστηρίζουν – αποδεχτούν αυτή την προσέγγιση ως τον μόνο τρόπο για την παροχή αξιοσέβαστου περιεχομένου, είναι σκουπίδια μέσα/σκουπίδια. 

Πρέπει να ρυθμιστεί περισσότερο η ανάπτυξη AI;

Η ανάπτυξη του AI έχει δημιουργήσει πολλά θεμιτές ανησυχίες για τα πάντα, από deepfakes και κλωνοποίηση φωνής έως προηγμένο phishing/vishing/smishing, ρομπότ δολοφόνων, ακόμα και την πιθανότητα Αποκάλυψη AI. Ο Eliezer Yudkowsky, ένα από τα πιο σεβαστά ονόματα της Τεχνητής Γενικής Νοημοσύνης (AGI), απηύθυνε πρόσφατα μια κλήση προς «κλείσε τα όλα», λέγοντας ότι ένα προτεινόμενο μορατόριουμ για έξι μήνες δεν ήταν αρκετό.

Αλλά δεν μπορείς να σταματήσεις την ανάπτυξη νέων τεχνολογιών, γεγονός που είναι εμφανές από την εποχή των αλχημιστών στην αρχαιότητα. Λοιπόν, από πρακτική άποψη, τι μπορεί να γίνει για να μην αναπτυχθεί η τεχνητή νοημοσύνη εκτός ελέγχου και να μετριαστεί ο κίνδυνος ενός γεγονότος εξαφάνισης λόγω της τεχνητής νοημοσύνης; Η απάντηση είναι πολλά από τα ίδια σύνολα ελέγχων που χρησιμοποιούνται σε άλλους τομείς που έχουν δυνατότητα οπλισμού: 

  • Διαφανής έρευνα. Η ανάπτυξη τεχνητής νοημοσύνης ανοιχτού κώδικα όχι μόνο οδηγεί στην καινοτομία και εκδημοκρατίζει την πρόσβαση, αλλά έχει επίσης πολλά οφέλη για την ασφάλεια, από τον εντοπισμό ελαττωμάτων ασφαλείας και επικίνδυνες γραμμές ανάπτυξης έως τη δημιουργία άμυνας έναντι πιθανής κατάχρησης. Η Big Tech μέχρι στιγμής υποστηρίζει τις προσπάθειες ανοιχτού κώδικα, αλλά αυτό θα μπορούσε να αλλάξει εάν ενταθεί ο ανταγωνισμός. Ίσως χρειαστεί να ληφθούν νομοθετικά μέτρα για τη διατήρηση της πρόσβασης ανοιχτού κώδικα.
  • Να περιέχει πειραματισμό. Όλα τα πειράματα με επαρκώς προηγμένη τεχνητή νοημοσύνη πρέπει να τοποθετηθούν σε sandbox, με αυστηρή εφαρμογή των διαδικασιών ασφάλειας και ασφάλειας. Αυτά δεν είναι αλάνθαστα μέτρα, αλλά μπορεί να κάνουν τη διαφορά μεταξύ μιας τοπικής αναταραχής και μιας παγκόσμιας καταστροφής.
  • Kill διακόπτες. Όπως τα αντίδοτα και τα εμβόλια, τα αντίμετρα κατά των παραλλαγών της τεχνητής νοημοσύνης πρέπει να αποτελούν αναπόσπαστο μέρος της διαδικασίας ανάπτυξης. Ακόμη και οι δημιουργοί ransomware δημιουργούν έναν διακόπτη kill. 
  • Ρυθμίστε τον τρόπο χρήσης του. Η τεχνητή νοημοσύνη είναι μια τεχνολογία που μπορεί να εφαρμοστεί για το καλό της ανθρωπότητας ή να γίνει κατάχρηση με καταστροφικές συνέπειες. Η ρύθμιση των εφαρμογών του είναι καθήκον των παγκόσμιων κυβερνήσεων και η επείγουσα ανάγκη είναι πολύ μεγαλύτερη από την ανάγκη λογοκρισίας της επόμενης έκδοσης του ChatGPT. ο Νόμος για την τεχνητή νοημοσύνη της ΕΕ είναι μια καλά τοποθετημένη, συνοπτική βάση που στοχεύει στην πρόληψη της κακής χρήσης χωρίς να καταπνίγει την καινοτομία. Οι ΗΠΑ Διακήρυξη Δικαιωμάτων AI και το πρόσφατο εκτελεστικό διάταγμα για την τεχνητή νοημοσύνη είναι λιγότερο συγκεκριμένες και φαίνεται να επικεντρώνονται περισσότερο στην πολιτική ορθότητα παρά στα ζητήματα της σωστής ανάπτυξης μοντέλων, εκπαίδευσης και περιορισμού. Ωστόσο, αυτά τα μέτρα είναι μόνο η αρχή. 

Συμπέρασμα

Η τεχνητή νοημοσύνη έρχεται στην κυβερνοασφάλεια είτε το θέλουν οι CISO είτε όχι, και θα αποφέρει σημαντικά οφέλη και κινδύνους στον τομέα της κυβερνοασφάλειας, ιδιαίτερα με την τελική άφιξη του μετα-κβαντική κρυπτογραφία. Τουλάχιστον, οι CISO θα πρέπει να αφιερώσουν χρόνο για να κατανοήσουν τα οφέλη των εργαλείων που διαφημίζονται από την τεχνητή νοημοσύνη και τις απειλές των επιθέσεων που βασίζονται στην τεχνητή νοημοσύνη. Το αν θα επενδύσουν χρήματα στην τεχνητή νοημοσύνη εξαρτάται σε μεγάλο βαθμό από τα απτά οφέλη των προϊόντων ασφάλειας τεχνητής νοημοσύνης, τις δημοσιοποιημένες συνέπειες των επιθέσεων τεχνητής νοημοσύνης και, σε κάποιο βαθμό, την προσωπική τους εμπειρία με το ChatGPT. 

Η πρόκληση που αντιμετωπίζουν οι CISO είναι πώς να εφαρμόσουν την τεχνητή νοημοσύνη αποτελεσματικά και υπεύθυνα.

Σφραγίδα ώρας:

Περισσότερα από ΔΕΔΟΜΕΝΟΤΗΤΑ