Χρησιμοποιώντας τα δικά σας δεδομένα για τον μετριασμό των προβλημάτων απορρήτου της τεχνητής νοημοσύνης και τη βελτίωση της εμπιστοσύνης της τεχνητής νοημοσύνης | IoT Now News & Reports

Χρησιμοποιώντας τα δικά σας δεδομένα για τον μετριασμό των προβλημάτων απορρήτου της τεχνητής νοημοσύνης και τη βελτίωση της εμπιστοσύνης της τεχνητής νοημοσύνης | IoT Now News & Reports

Κόμβος πηγής: 3068504

Με μοντέλα τεχνητής νοημοσύνης ικανά να ανιχνεύουν μοτίβα και να κάνουν προβλέψεις που θα ήταν δύσκολο ή αδύνατο για έναν άνθρωπο να κάνει με το χέρι, οι πιθανές εφαρμογές για εργαλεία όπως π.χ. ChatGPT σε όλους τους κλάδους της υγειονομικής περίθαλψης, των οικονομικών και της εξυπηρέτησης πελατών είναι τεράστιοι.

Ωστόσο, ενώ οι προτεραιότητες των οργανισμών γύρω από την τεχνητή νοημοσύνη θα πρέπει να είναι η αξιολόγηση των ευκαιριών που προσφέρουν τα εργαλεία παραγωγής τεχνητής νοημοσύνης στην επιχείρησή τους όσον αφορά το ανταγωνιστικό πλεονέκτημα, το θέμα του απορρήτου των δεδομένων έχει γίνει κύριο μέλημα. Η διαχείριση της υπεύθυνης χρήσης της τεχνητής νοημοσύνης, με τις δυνατότητές της να παράγει μεροληπτικά αποτελέσματα, χρειάζεται προσεκτική εξέταση. 

Ενώ τα πιθανά οφέλη αυτών των μοντέλων είναι τεράστια, οι οργανισμοί θα πρέπει να εξετάσουν προσεκτικά τις ηθικές και πρακτικές εκτιμήσεις για τη χρήση της τεχνητής νοημοσύνης με υπεύθυνο τρόπο με ασφαλή και ασφαλή προστασία δεδομένων τεχνητής νοημοσύνης. Βελτιστοποιώντας τη συνολική εμπειρία χρήστη με το ChatGPT, οι οργανισμοί μπορούν να βελτιώσουν την εμπειρία τους Αξιοπιστία AI

Ανησυχίες για το απόρρητο της AI 

Όπως και πολλές άλλες τεχνολογίες αιχμής, η τεχνητή νοημοσύνη αναμφίβολα θα εγείρει ορισμένα ερωτήματα και προκλήσεις για όσους θέλουν να την αναπτύξουν στις τεχνολογικές τους στοίβες. Μάλιστα, μια έρευνα από Πρόοδος αποκάλυψε ότι το 65% των επιχειρήσεων και των στελεχών πληροφορικής πιστεύουν επί του παρόντος ότι υπάρχει προκατάληψη δεδομένων στους αντίστοιχους οργανισμούς τους και το 78% λέει ότι αυτό θα επιδεινωθεί καθώς αυξάνεται η υιοθέτηση της τεχνητής νοημοσύνης. 

Πιθανώς η μεγαλύτερη ανησυχία για την προστασία της ιδιωτικής ζωής είναι η χρήση δεδομένων ιδιωτικής εταιρείας σε συνδυασμό με πλατφόρμες τεχνητής νοημοσύνης που αντιμετωπίζουν δημόσια και εσωτερικές. Για παράδειγμα, αυτός μπορεί να είναι ένας οργανισμός υγειονομικής περίθαλψης που αποθηκεύει εμπιστευτικά δεδομένα ασθενών ή τα δεδομένα μισθοδοσίας των εργαζομένων μιας μεγάλης εταιρείας. 

Για να είναι η τεχνητή νοημοσύνη πιο αποτελεσματική, χρειάζεστε ένα μεγάλο μέγεθος δείγματος δημόσιων ή/και ιδιωτικών δεδομένων υψηλής ποιότητας και οργανισμοί με πρόσβαση σε εμπιστευτικά δεδομένα, όπως εταιρείες υγειονομικής περίθαλψης με ιατρικά αρχεία, έχουν ανταγωνιστικό πλεονέκτημα κατά την κατασκευή λύσεων που βασίζονται σε τεχνητή νοημοσύνη. Πάνω απ 'όλα, αυτοί οι οργανισμοί με τόσο ευαίσθητα δεδομένα πρέπει να λαμβάνουν υπόψη τις ηθικές και κανονιστικές απαιτήσεις που περιβάλλουν Προστασία προσωπικών δεδομένων, δικαιοσύνη, επεξήγηση, διαφάνεια, ευρωστία και πρόσβαση.  

Τα μοντέλα μεγάλων γλωσσών (LLM) είναι ισχυρά μοντέλα AI που εκπαιδεύονται σε δεδομένα κειμένου για να εκτελούν διάφορες εργασίες επεξεργασίας φυσικής γλώσσας, συμπεριλαμβανομένης της μετάφρασης γλώσσας, της απάντησης ερωτήσεων, της σύνοψης και της ανάλυσης συναισθημάτων. Αυτά τα μοντέλα έχουν σχεδιαστεί για να αναλύουν τη γλώσσα με τρόπο που μιμείται την ανθρώπινη νοημοσύνη, επιτρέποντάς τους να επεξεργάζονται, να κατανοούν και να δημιουργούν ανθρώπινη ομιλία. 

Κίνδυνοι για ιδιωτικά δεδομένα κατά τη χρήση AI 

Ωστόσο, με αυτά τα πολύπλοκα μοντέλα έρχονται ηθικές και τεχνικές προκλήσεις που μπορεί να θέτουν κινδύνους για την ακρίβεια των δεδομένων, την παραβίαση πνευματικών δικαιωμάτων και πιθανές υποθέσεις συκοφαντίας. Μερικές από τις προκλήσεις για την αποτελεσματική χρήση τεχνητής νοημοσύνης chatbot περιλαμβάνουν: 

  • Ψευδαισθήσεις – Στην τεχνητή νοημοσύνη, μια παραίσθηση είναι όταν αναφέρει απαντήσεις γεμάτες λάθη στον χρήστη και αυτές είναι πολύ συνηθισμένες. Ο τρόπος με τον οποίο τα LLM προβλέπουν την επόμενη λέξη κάνει τις απαντήσεις να ακούγονται εύλογες, ενώ οι πληροφορίες μπορεί να είναι ελλιπείς ή ψευδείς. Για παράδειγμα, εάν ένας χρήστης ζητήσει από ένα chatbot το μέσο εισόδημα ενός ανταγωνιστή, αυτοί οι αριθμοί μπορεί να είναι πολύ μακριά.  
  • Προκατάληψη δεδομένων – Οι LLM μπορούν επίσης να εκθέσουν μεροληψίες, πράγμα που σημαίνει ότι μπορούν να παράγουν αποτελέσματα που αντικατοπτρίζουν τις προκαταλήψεις στα δεδομένα εκπαίδευσης και όχι την αντικειμενική πραγματικότητα. Για παράδειγμα, ένα γλωσσικό μοντέλο που εκπαιδεύεται σε ένα κυρίως ανδρικό σύνολο δεδομένων μπορεί να παράγει προκατειλημμένα αποτελέσματα σχετικά με θέματα που σχετίζονται με το φύλο. 
  • Συλλογισμός/Κατανόηση – Τα LLM μπορεί επίσης να χρειάζονται βοήθεια σε εργασίες που απαιτούν βαθύτερη συλλογιστική ή κατανόηση σύνθετων εννοιών. Ένα LLM μπορεί να εκπαιδευτεί για να απαντά σε ερωτήσεις που απαιτούν μια λεπτή κατανόηση του πολιτισμού ή της ιστορίας. Είναι πιθανό τα μοντέλα να διαιωνίζουν στερεότυπα ή να παρέχουν παραπληροφόρηση εάν δεν εκπαιδεύονται και δεν παρακολουθούνται αποτελεσματικά. 

Εκτός από αυτούς, άλλοι κίνδυνοι μπορεί να περιλαμβάνουν Data Cutoffs, δηλαδή όταν η μνήμη ενός μοντέλου τείνει να είναι ξεπερασμένη. Μια άλλη πιθανή πρόκληση είναι να κατανοήσουμε πώς το LLM δημιούργησε την απάντησή του καθώς το AI δεν έχει εκπαιδευτεί αποτελεσματικά για να δείξει τη συλλογιστική του που χρησιμοποιείται για την κατασκευή μιας απόκρισης. 

Χρήση σημασιολογικής γνώσης για την παροχή αξιόπιστων δεδομένων 

Οι ομάδες τεχνολογίας αναζητούν βοήθεια σχετικά με τη χρήση ιδιωτικών δεδομένων για το ChatGPT. Παρά την αύξηση της ακρίβειας και της αποτελεσματικότητας, οι LLMs, για να μην αναφέρουμε τους χρήστες τους, μπορούν ακόμα να χρειάζονται βοήθεια με τις απαντήσεις. Ειδικά δεδομένου ότι τα δεδομένα μπορεί να μην έχουν πλαίσιο και νόημα. Μια ισχυρή, ασφαλής, διαφανής, ελεγχόμενη λύση διαχείρισης γνώσης AI είναι η απάντηση. Με μια πλατφόρμα σημασιολογικών δεδομένων, οι χρήστες μπορούν να αυξήσουν την ακρίβεια και την αποτελεσματικότητα ενώ εισάγουν τη διακυβέρνηση.  

Επιτυγχάνοντας μια απάντηση που είναι ένας συνδυασμός της απάντησης του ChatGPT επικυρωμένη με σημασιολογική γνώση από μια πλατφόρμα σημασιολογικών δεδομένων, τα συνδυασμένα αποτελέσματα θα επιτρέψουν στους LLM και στους χρήστες να έχουν εύκολη πρόσβαση και να ελέγχουν τα αποτελέσματα σε σχέση με το περιεχόμενο της πηγής και τη γνώση των ΜΜΕ που έχουν συλληφθεί. 

Αυτό επιτρέπει στο εργαλείο τεχνητής νοημοσύνης να αποθηκεύει και να αναζητά δομημένα και μη δομημένα δεδομένα, καθώς και να συλλαμβάνει περιεχόμενο ειδικού θέματος (SME) μέσω του διαισθητικού GUI του. Με την εξαγωγή γεγονότων που βρίσκονται μέσα στα δεδομένα και την προσθήκη ετικετών στα ιδιωτικά δεδομένα με σημασιολογική γνώση, μπορούν επίσης να επισημανθούν με αυτήν τη γνώση ερωτήσεις ή εισροές χρηστών και συγκεκριμένες απαντήσεις ChatGPT.  

Η προστασία ευαίσθητων δεδομένων μπορεί να ξεκλειδώσει τις πραγματικές δυνατότητες του AI 

Όπως συμβαίνει με όλες τις τεχνολογίες, η προστασία από απροσδόκητες εισροές ή καταστάσεις είναι ακόμη πιο σημαντική με τα LLM. Κατά την επιτυχή αντιμετώπιση αυτών των προκλήσεων, η αξιοπιστία των λύσεών μας θα αυξηθεί μαζί με την ικανοποίηση των χρηστών, οδηγώντας τελικά στην επιτυχία της λύσης. 

Ως πρώτο βήμα για τη διερεύνηση της χρήσης της τεχνητής νοημοσύνης για τον οργανισμό τους, οι επαγγελματίες πληροφορικής και ασφάλειας πρέπει να αναζητήσουν τρόπους για να προστατεύσουν ευαίσθητα δεδομένα ενώ τα αξιοποιούν για να βελτιστοποιήσουν τα αποτελέσματα για τον οργανισμό και τους πελάτες του. 

Matthieu Jonglez, μια πλατφόρμα τεχνολογίας - εφαρμογών και δεδομένων VP στην Progress.Matthieu Jonglez, μια πλατφόρμα τεχνολογίας - εφαρμογών και δεδομένων VP στην Progress.

Άρθρο του Matthieu Jonglez, αντιπρόεδρος της πλατφόρμας τεχνολογίας – εφαρμογών και δεδομένων στο Πρόγκρεδδ.

Σχολιάστε αυτό το άρθρο παρακάτω ή μέσω X: @IoTNow_

Σφραγίδα ώρας:

Περισσότερα από IoT Τώρα