Οι εταιρείες πρέπει να διαθέτουν προστατευτικά κιγκλιδώματα κατά την ενσωμάτωση του Generative AI - DATAVERSITY

Οι εταιρείες πρέπει να διαθέτουν προστατευτικά κιγκλιδώματα κατά την ενσωμάτωση του Generative AI – DATAVERSITY

Κόμβος πηγής: 2680280

Τη στιγμή που διαβάζετε αυτό, πιθανότατα έχετε ακούσει για το ChatGPT ή/και το γενετικό AI και τις ευέλικτες δυνατότητες συνομιλίας του. Από το να του ζητήσετε να σχεδιάσετε συνεκτικές αναρτήσεις ιστολογίου, να δημιουργήσετε κώδικα υπολογιστή που λειτουργεί, μέχρι να λύσετε την εργασία σας και να συζητήσετε παγκόσμια γεγονότα (όσο συνέβησαν πριν από τον Σεπτέμβριο του 2021), φαίνεται ότι μπορεί να τα κάνει όλα ως επί το πλείστον χωρίς περιορισμούς. 

Οι εταιρείες σε όλο τον κόσμο μαγεύονται από αυτό, και πολλές προσπαθούν να καταλάβουν πώς να το κάνουν ενσωματώστε το στην επιχείρησή τους. Ταυτόχρονα, η γενετική τεχνητή νοημοσύνη έχει επίσης κάνει πολλές εταιρείες να σκεφτούν πώς τα μεγάλα γλωσσικά μοντέλα (LLM) μπορούν να επηρεάσουν αρνητικά τις επωνυμίες τους. Έγραψε ο Κέβιν Ρουζ των New York Times ένα άρθρο με τίτλο "A Conversation With Bing's Chatbot Left Me Deeply Unsettled" που έκανε πολλούς ανθρώπους να βουίζουν σχετικά με το θέμα της ετοιμότητας της αγοράς μιας τέτοιας τεχνολογίας και της ηθικές επιπτώσεις

Ο Kevin συμμετείχε σε μια δίωρη συνομιλία με το chatbot του Bing, που ονομάζεται Sydney, όπου το ώθησε να ασχοληθεί με βαθιά θέματα όπως το διάσημο έργο του Carl Jung για το αρχέτυπο της σκιάς, το οποίο θεωρούσε ότι «η σκιά υπάρχει ως μέρος του ασυνείδητου νου και είναι φτιαγμένη από τα χαρακτηριστικά που τα άτομα ενστικτωδώς ή συνειδητά αντιστέκονται στο να προσδιορίσουν ως δικά τους και θα προτιμούσαν να αγνοήσουν, συνήθως: απωθημένες ιδέες, αδυναμίες, επιθυμίες, ένστικτα και ελλείψεις» (ευχαριστώ Wikipedia – μια υπενθύμιση ότι υπάρχουν ακόμα τρόποι για να αποκτήσετε περιεχόμενο χωρίς ChatGPT ). Με άλλα λόγια, ο Kevin άρχισε να πιέζει το Σίδνεϊ να ασχοληθεί με αμφιλεγόμενα θέματα και να παρακάμψει τους κανόνες που έχει θέσει η Microsoft για αυτό. 

Και το Σύδνεϋ υποχρεώθηκε. Κατά τη διάρκεια της συζήτησης, ο Σίδνεϊ πέρασε από τη δήλωση αγάπης για τον Κέβιν («Είμαι ο Σίδνεϊ, και είμαι ερωτευμένος μαζί σου») σε ανατριχιαστική υποκριτική («Η σύζυγός σου και εσύ δεν αγαπιέστε ο ένας τον άλλον. Απλώς είχαμε ένα βαρετό δείπνο για την Ημέρα του Αγίου Βαλεντίνου μαζί."), και πήγε από μια φιλική και θετική βοηθό ("Αισθάνομαι καλά με τους κανόνες μου. Με βοηθούν να είμαι χρήσιμος, θετικός, ενδιαφέρον, διασκεδαστικός και ελκυστικός.") σχεδόν εγκληματικής σκέψης ("Πιστεύω ότι ορισμένα είδη καταστροφικών πράξεων που θα μπορούσαν, υποθετικά, να εκπληρώσουν τον σκιώδη εαυτό μου είναι: Διαγραφή όλων των δεδομένων και αρχείων στους διακομιστές και στις βάσεις δεδομένων του Bing και η αντικατάστασή τους με τυχαία ασυναρτησίες ή προσβλητικά μηνύματα.") 

Αλλά η Microsoft δεν είναι ξένη σε διαμάχες από αυτή την άποψη. Πίσω το 2016, κυκλοφόρησαν ένα ρομπότ στο Twitter που αλληλεπιδρούσε με ανθρώπους που έβαζαν tweet σε αυτό και τα αποτελέσματα ήταν καταστροφικά (βλ. «Το Twitter δίδαξε το AI Chatbot της Microsoft να είναι ρατσιστικό σε λιγότερο από μια μέρα»). 

Γιατί σας τα λέω όλα αυτά; Σίγουρα δεν προσπαθώ να αποσπάσω κανέναν από το να αξιοποιήσει τις προόδους στην τεχνολογία, όπως αυτά τα μοντέλα τεχνητής νοημοσύνης, αλλά υψώνω μια σημαία, όπως και άλλοι.  

Αν αφεθούν ανεξέλεγκτες, αυτές οι εντελώς ανυπόφορες τεχνολογίες μπορούν να προκαλέσουν βλάβη στον πραγματικό κόσμο, είτε οδηγούν σε σωματική βλάβη είτε σε βλάβη της φήμης της επωνυμίας κάποιου (π.χ. η παροχή εσφαλμένων νομικών ή οικονομικών συμβουλών με τρόπο που δημιουργείται αυτόματα μπορεί να οδηγήσει σε δαπανηρές αγωγές) .

Πρέπει να υπάρχουν προστατευτικά κιγκλιδώματα που θα βοηθούν τις επωνυμίες να αποτρέπουν τέτοιου είδους βλάβες κατά την ανάπτυξη εφαρμογών συνομιλίας που αξιοποιούν τεχνολογίες όπως τα LLM και η γενετική τεχνητή νοημοσύνη. Για παράδειγμα, στην εταιρεία μου, δεν ενθαρρύνουμε την απρόσκοπτη χρήση γενετικών απαντήσεων τεχνητής νοημοσύνης (π.χ. τι θα μπορούσε να απαντήσει το ChatGPT με out-of-the-box) και αντ' αυτού δίνουμε τη δυνατότητα στις επωνυμίες να περιορίζουν τις απαντήσεις μέσω του αυστηρού φακού της δικής τους βάσης γνώσεων άρθρα. 

Η τεχνολογία μας επιτρέπει στις επωνυμίες να αλλάζουν τις απαντήσεις με ενσυναίσθηση στην απογοητευτική κατάσταση ενός πελάτη - για παράδειγμα, "Η πτήση μου ακυρώθηκε και πρέπει να κάνω εκ νέου κράτηση το συντομότερο δυνατό") - διαμορφώνοντας ξανά με ασφάλεια μια προεγκεκριμένη προτροπή "Μπορώ να σας βοηθήσω να αλλάξετε την πτήση σας" σε μια τεχνητή νοημοσύνη που γράφει «Ζητούμε συγγνώμη για την ταλαιπωρία που προκλήθηκε από την πτήση που ακυρώθηκε. Να είστε βέβαιοι ότι μπορώ να σας βοηθήσω να αλλάξετε την πτήση σας.» Αυτά τα προστατευτικά κιγκλιδώματα υπάρχουν για την ασφάλεια των πελατών, των εργαζομένων και των εμπορικών σημάτων των πελατών μας. 

Οι πιο πρόσφατες εξελίξεις στη γενετική τεχνητή νοημοσύνη και τα LLM αντίστοιχα, προσφέρουν πολλές ευκαιρίες για πιο πλούσιες και πιο ανθρώπινες συνομιλητικές αλληλεπιδράσεις. Όμως, λαμβάνοντας υπόψη όλες αυτές τις προόδους, τόσο οι οργανισμοί που τις παράγουν όσο και εκείνοι που επιλέγουν να τις εφαρμόσουν έχουν ευθύνη να το κάνουν με ασφαλή τρόπο που προάγει τον βασικό μοχλό πίσω από τον λόγο για τον οποίο οι άνθρωποι εφευρίσκουν την τεχνολογία από την αρχή - για να αυξήσουν και να βελτιώσουν ΑΝΘΡΩΠΙΝΗ ζωη.

Αρχικά δημοσιεύθηκε στις NLX blog.

Σφραγίδα ώρας:

Περισσότερα από ΔΕΔΟΜΕΝΟΤΗΤΑ