Skynet Ahoy; Τι να περιμένετε για τους κινδύνους ασφάλειας AI επόμενης γενιάς

Skynet Ahoy; Τι να περιμένετε για τους κινδύνους ασφάλειας AI επόμενης γενιάς

Κόμβος πηγής: 3037761

Καθώς η καινοτομία στην τεχνητή νοημοσύνη (AI) συνεχίζεται ταχύτατα, το 2024 θα είναι μια κρίσιμη στιγμή για τους οργανισμούς και τα διοικητικά όργανα να θεσπίσουν πρότυπα ασφαλείας, πρωτόκολλα και άλλα προστατευτικά κιγκλιδώματα για να αποτρέψουν την τεχνητή νοημοσύνη να τους ξεπεράσει, προειδοποιούν ειδικοί σε θέματα ασφάλειας.

Τα μεγάλα γλωσσικά μοντέλα (LLMs), που τροφοδοτούνται από εξελιγμένους αλγόριθμους και τεράστια σύνολα δεδομένων, επιδεικνύουν αξιοσημείωτη κατανόηση γλώσσας και ικανότητες συνομιλίας που μοιάζει με τον άνθρωπο. Μία από τις πιο εξελιγμένες από αυτές τις πλατφόρμες μέχρι σήμερα είναι το GPT-4 του OpenAI, το οποίο διαθέτει προηγμένες δυνατότητες συλλογιστικής και επίλυσης προβλημάτων και εξουσιοδοτεί το bot ChatGPT της εταιρείας. Και η εταιρεία, σε συνεργασία με τη Microsoft, έχει ξεκινήσει να εργάζεται για το GPT-5, όπως είπε ο Διευθύνων Σύμβουλος Sam Altman θα πάει πολύ παραπέρα — σε σημείο κατοχής «υπερνοημοσύνης».

Αυτά τα μοντέλα αντιπροσωπεύουν τεράστιες δυνατότητες για σημαντικά κέρδη παραγωγικότητας και αποδοτικότητας για τους οργανισμούς, αλλά οι ειδικοί συμφωνούν ότι έχει έρθει η ώρα για τον κλάδο συνολικά για την αντιμετώπιση των εγγενών κινδύνων ασφάλειας που προκύπτουν από την ανάπτυξη και την ανάπτυξή τους. Πράγματι, πρόσφατη έρευνα του Writerbuddy AI, που προσφέρει ένα εργαλείο γραφής περιεχομένου που βασίζεται σε τεχνητή νοημοσύνη, διαπίστωσε ότι το ChatGPT είχε ήδη 14 δισεκατομμύρια επισκέψεις και καταμέτρηση.

Καθώς οι οργανισμοί βαδίζουν προς την πρόοδο στον τομέα της τεχνητής νοημοσύνης, «θα πρέπει να συνδυάζεται με αυστηρούς ηθικούς προβληματισμούς και εκτιμήσεις κινδύνου», λέει η Gal Ringel, Διευθύνων Σύμβουλος της εταιρείας προστασίας απορρήτου και ασφάλειας MineOS που βασίζεται στην τεχνητή νοημοσύνη.

Είναι η τεχνητή νοημοσύνη υπαρξιακή απειλή;

Οι ανησυχίες σχετικά με την ασφάλεια για την επόμενη γενιά τεχνητής νοημοσύνης άρχισαν να διεισδύουν τον Μάρτιο, με μια ανοιχτή επιστολή που υπογράφηκε από σχεδόν 34,000 κορυφαίους τεχνολόγους, η οποία ζητούσε να σταματήσει η ανάπτυξη συστημάτων τεχνητής νοημοσύνης που είναι πιο ισχυρά από Το GPT-4 του OpenAI. Η επιστολή ανέφερε τους «βαθίους κινδύνους» για την κοινωνία που αντιπροσωπεύει η τεχνολογία και τον «εκτός ελέγχου αγώνα των εργαστηρίων τεχνητής νοημοσύνης να αναπτύξουν και να αναπτύξουν όλο και πιο ισχυρά ψηφιακά μυαλά που κανείς —ακόμα και οι δημιουργοί τους— δεν μπορεί να καταλάβει, να προβλέψει ή αξιόπιστο έλεγχο.»

Παρά αυτούς τους δυστοπικούς φόβους, οι περισσότεροι ειδικοί σε θέματα ασφάλειας δεν ανησυχούν τόσο για ένα σενάριο καταστροφής στο οποίο οι μηχανές γίνονται πιο έξυπνες από τους ανθρώπους και καταλαμβάνουν τον κόσμο.

«Η ανοιχτή επιστολή σημείωσε βάσιμες ανησυχίες για την ταχεία πρόοδο και τις πιθανές εφαρμογές της τεχνητής νοημοσύνης σε μια ευρεία έννοια, «είναι καλό για την ανθρωπότητα»», λέει ο Matt Wilson, διευθυντής μηχανικής πωλήσεων στην εταιρεία κυβερνοασφάλειας Netrix. «Αν και είναι εντυπωσιακές σε ορισμένα σενάρια, οι δημόσιες εκδόσεις των εργαλείων AI δεν φαίνονται τόσο απειλητικές».

Αυτό που προκαλεί ανησυχία είναι το γεγονός ότι οι προόδους και η υιοθέτηση της τεχνητής νοημοσύνης κινούνται πολύ γρήγορα ώστε οι κίνδυνοι να αντιμετωπιστούν σωστά, σημειώνουν οι ερευνητές. «Δεν μπορούμε να ξαναβάλουμε το καπάκι στο κουτί της Πανδώρας», παρατηρεί ο Patrick Harr, Διευθύνων Σύμβουλος του παρόχου ασφάλειας AI SlashNext.

Επιπλέον, η απλή «προσπάθεια να σταματήσει ο ρυθμός καινοτομίας στον χώρο δεν θα βοηθήσει στον μετριασμό» των κινδύνων που παρουσιάζει, οι οποίοι πρέπει να αντιμετωπιστούν ξεχωριστά, παρατηρεί ο Marcus Fowler, Διευθύνων Σύμβουλος της εταιρείας ασφαλείας AI DarkTrace Federal. Αυτό δεν σημαίνει ότι η ανάπτυξη της τεχνητής νοημοσύνης θα πρέπει να συνεχιστεί χωρίς έλεγχο, λέει. Αντίθετα, το ποσοστό αξιολόγησης κινδύνου και η εφαρμογή κατάλληλων διασφαλίσεων θα πρέπει να ταιριάζει με το ρυθμό με τον οποίο εκπαιδεύονται και αναπτύσσονται οι LLMs.

«Η τεχνολογία AI εξελίσσεται γρήγορα, επομένως οι κυβερνήσεις και οι οργανισμοί που χρησιμοποιούν την τεχνητή νοημοσύνη πρέπει επίσης να επιταχύνουν τις συζητήσεις σχετικά με την ασφάλεια της τεχνητής νοημοσύνης», εξηγεί ο Fowler.

Δημιουργικοί κίνδυνοι τεχνητής νοημοσύνης

Υπάρχουν αρκετοί ευρέως αναγνωρισμένοι κίνδυνοι για τη γενετική τεχνητή νοημοσύνη που απαιτούν προσοχή και θα επιδεινωθούν όσο οι μελλοντικές γενιές της τεχνολογίας γίνονται πιο έξυπνες. Ευτυχώς για τους ανθρώπους, κανένας από αυτούς μέχρι στιγμής δεν παρουσιάζει ένα σενάριο επιστημονικής φαντασίας, στο οποίο η τεχνητή νοημοσύνη συνωμοτεί για να καταστρέψει τους δημιουργούς της.

Αντίθετα, περιλαμβάνουν πολύ πιο γνωστές απειλές, όπως διαρροές δεδομένων, δυνητικά ευαίσθητων για τις επιχειρήσεις πληροφοριών. κατάχρηση για κακόβουλη δραστηριότητα· και ανακριβή αποτελέσματα που μπορούν να παραπλανήσουν ή να μπερδέψουν τους χρήστες, με αποτέλεσμα αρνητικές επιχειρηματικές συνέπειες.

Επειδή τα LLM απαιτούν πρόσβαση σε τεράστιες ποσότητες δεδομένων για να παρέχουν ακριβή και σχετικά συμφραζόμενα αποτελέσματα, ευαίσθητες πληροφορίες μπορεί να αποκαλυφθούν ακούσια ή να χρησιμοποιηθούν κατάχρηση.

«Ο κύριος κίνδυνος είναι οι εργαζόμενοι να το ταΐζουν με πληροφορίες ευαίσθητες για τις επιχειρήσεις όταν του ζητάτε να γράψει ένα σχέδιο ή να αναδιατυπώσει τα email ή τα επαγγελματικά decks που περιέχουν τις ιδιόκτητες πληροφορίες της εταιρείας», σημειώνει ο Ringel.

Από την άποψη της κυβερνοεπίθεσης, οι φορείς απειλών έχουν ήδη βρει μυριάδες τρόπους να οπλίσουν το ChatGPT και άλλα συστήματα τεχνητής νοημοσύνης. Ένας τρόπος ήταν η χρήση των μοντέλων για τη δημιουργία εξελιγμένων επιχειρηματικών επιθέσεων ηλεκτρονικού ταχυδρομείου (BEC) και άλλων επιθέσεων phishing, που απαιτούν τη δημιουργία κοινωνικά σχεδιασμένων, εξατομικευμένων μηνυμάτων σχεδιασμένων για επιτυχία.

«Με κακόβουλο λογισμικό, το ChatGPT επιτρέπει στους εγκληματίες του κυβερνοχώρου να κάνουν άπειρες παραλλαγές κώδικα για να παραμείνουν ένα βήμα μπροστά από τις μηχανές ανίχνευσης κακόβουλου λογισμικού», λέει ο Harr.

Οι ψευδαισθήσεις με τεχνητή νοημοσύνη αποτελούν επίσης σημαντική απειλή για την ασφάλεια και επιτρέπουν σε κακόβουλους παράγοντες να οπλίσουν με μοναδικό τρόπο την τεχνολογία που βασίζεται σε LLM, όπως το ChatGPT. Μια ψευδαίσθηση με τεχνητή νοημοσύνη είναι μια εύλογη απόκριση από την τεχνητή νοημοσύνη που είναι ανεπαρκής, μεροληπτική ή ξεκάθαρη δεν είναι αληθινή. «Οι φανταστικές ή άλλες ανεπιθύμητες απαντήσεις μπορούν να οδηγήσουν τους οργανισμούς σε λανθασμένες αποφάσεις, διαδικασίες και παραπλανητικές επικοινωνίες», προειδοποιεί ο Avivah Litan, αντιπρόεδρος της Gartner.

Οι ηθοποιοί απειλών μπορούν επίσης να χρησιμοποιήσουν αυτές τις παραισθήσεις για να δηλητηριάσουν τα LLM και να «δημιουργήσουν συγκεκριμένη παραπληροφόρηση ως απάντηση σε μια ερώτηση», παρατηρεί ο Michael Rinehart, αντιπρόεδρος AI στον πάροχο ασφάλειας δεδομένων Securiti. "Αυτό μπορεί να επεκταθεί σε ευάλωτη δημιουργία πηγαίου κώδικα και, πιθανώς, σε μοντέλα συνομιλίας ικανά να κατευθύνουν τους χρήστες ενός ιστότοπου σε μη ασφαλείς ενέργειες."

Οι επιτιθέμενοι μπορούν ακόμη και να φτάσουν στο σημείο δημοσιεύει κακόβουλες εκδόσεις πακέτων λογισμικού που ένα LLM μπορεί να συστήσει σε έναν προγραμματιστή λογισμικού, πιστεύοντας ότι είναι μια νόμιμη λύση σε ένα πρόβλημα. Με αυτόν τον τρόπο, οι εισβολείς μπορούν να οπλίσουν περαιτέρω την τεχνητή νοημοσύνη για να πραγματοποιήσουν επιθέσεις στην αλυσίδα εφοδιασμού.

Ο δρόμος μπροστά

Η διαχείριση αυτών των κινδύνων θα απαιτήσει μετρημένη και συλλογική δράση προτού η καινοτομία της τεχνητής νοημοσύνης ξεπεράσει την ικανότητα της βιομηχανίας να την ελέγχει, σημειώνουν οι ειδικοί. Αλλά έχουν επίσης ιδέες για το πώς να αντιμετωπίσουν το πρόβλημα της τεχνητής νοημοσύνης.

Ο Harr πιστεύει σε ένα "πάλεψε την AI με τον Αστρατηγική, στην οποία «οι εξελίξεις στις λύσεις ασφάλειας και οι στρατηγικές για την αποτροπή κινδύνων που τροφοδοτούνται από την τεχνητή νοημοσύνη πρέπει να αναπτυχθούν με ίσο ή μεγαλύτερο ρυθμό.

«Η προστασία της κυβερνοασφάλειας πρέπει να αξιοποιήσει την τεχνητή νοημοσύνη για την επιτυχή καταπολέμηση των απειλών στον κυβερνοχώρο χρησιμοποιώντας τεχνολογία AI», προσθέτει. "Σε σύγκριση, η τεχνολογία ασφαλείας παλαιού τύπου δεν έχει καμία πιθανότητα ενάντια σε αυτές τις επιθέσεις."

Ωστόσο, οι οργανισμοί θα πρέπει επίσης να υιοθετήσουν μια μετρημένη προσέγγιση για την υιοθέτηση της τεχνητής νοημοσύνης — συμπεριλαμβανομένων Λύσεις ασφαλείας που βασίζονται σε AI — για να μην εισαγάγουν περισσότερους κινδύνους στο περιβάλλον τους, προειδοποιεί ο Wilson της Netrix.

«Κατανοήστε τι είναι και τι δεν είναι η τεχνητή νοημοσύνη», συμβουλεύει. «Προκαλέστε τους προμηθευτές που ισχυρίζονται ότι χρησιμοποιούν τεχνητή νοημοσύνη για να περιγράψουν τι κάνει, πώς βελτιώνει τη λύση τους και γιατί αυτό έχει σημασία για τον οργανισμό σας».

Το Rinehart της Securiti προσφέρει μια προσέγγιση δύο επιπέδων για τη σταδιακή εισαγωγή της τεχνητής νοημοσύνης σε ένα περιβάλλον, αναπτύσσοντας εστιασμένες λύσεις και στη συνέχεια τοποθετώντας προστατευτικά κιγκλιδώματα αμέσως πριν εκθέσει τον οργανισμό σε περιττό κίνδυνο.

«Πρώτα υιοθετήστε μοντέλα για συγκεκριμένες εφαρμογές, πιθανώς επαυξημένα από βάσεις γνώσεων, τα οποία είναι προσαρμοσμένα για να παρέχουν αξία σε συγκεκριμένες περιπτώσεις χρήσης», λέει. «Στη συνέχεια… εφαρμόστε ένα σύστημα παρακολούθησης για την προστασία αυτών των μοντέλων ελέγχοντας τα μηνύματα προς και από αυτά για ζητήματα απορρήτου και ασφάλειας».

Οι ειδικοί προτείνουν επίσης τη δημιουργία πολιτικών και διαδικασιών ασφαλείας γύρω από την τεχνητή νοημοσύνη πριν από την ανάπτυξή της και όχι ως μεταγενέστερη σκέψη για τον μετριασμό του κινδύνου. Μπορούν ακόμη και να δημιουργήσουν έναν ειδικό αξιωματικό κινδύνου AI ή ομάδα εργασίας για την επίβλεψη της συμμόρφωσης.

Εκτός της επιχείρησης, η βιομηχανία στο σύνολό της πρέπει επίσης να λάβει μέτρα για τη θέσπιση προτύπων και πρακτικών ασφαλείας γύρω από την τεχνητή νοημοσύνη που μπορούν να υιοθετήσουν όλοι όσοι αναπτύσσουν και χρησιμοποιούν την τεχνολογία — κάτι που θα απαιτήσει συλλογική δράση τόσο από τον δημόσιο όσο και από τον ιδιωτικό τομέα σε παγκόσμια κλίμακα , λέει ο Fowler της DarkTrace Federal.

Επικαλείται κατευθυντήριες γραμμές για την κατασκευή ασφαλών συστημάτων AI δημοσιεύθηκε από κοινού από την Υπηρεσία Κυβερνοασφάλειας και Ασφάλειας Υποδομών των ΗΠΑ (CISA) και το Εθνικό Κέντρο Κυβερνοασφάλειας του Ηνωμένου Βασιλείου (NCSC) ως παράδειγμα του είδους των προσπαθειών που θα πρέπει να συνοδεύουν τη συνεχή εξέλιξη της τεχνητής νοημοσύνης.

«Ουσιαστικά», λέει ο Rinehart της Securiti, «το έτος 2024 θα γίνει μάρτυρας μιας ταχείας προσαρμογής τόσο της παραδοσιακής ασφάλειας όσο και των τεχνικών τεχνητής νοημοσύνης αιχμής προς την προστασία των χρηστών και των δεδομένων σε αυτήν την αναδυόμενη εποχή της τεχνητής νοημοσύνης.

Σφραγίδα ώρας:

Περισσότερα από Σκοτεινή ανάγνωση