Το ChatGPT του OpenAI κατηγορείται για συκοφαντική δυσφήμιση σε μήνυση ορόσημο

Το ChatGPT του OpenAI κατηγορείται για συκοφαντική δυσφήμιση σε μήνυση ορόσημο

Κόμβος πηγής: 2717755

Ο ραδιοφωνικός ραδιοφωνικός σταθμός Mark Walters με έδρα τις ΗΠΑ μήνυσε το OpenAI για συκοφαντική δυσφήμιση αφού το chatbot AI ChatGPT τον κατηγόρησε για υπεξαίρεση χρημάτων από το Ίδρυμα Δεύτερης Τροποποίησης (SAF). Ο Walters λέει ότι οι ισχυρισμοί είναι ψευδείς και επίσης δεν έχει εργαστεί ποτέ για την ομάδα για τα δικαιώματα των όπλων.

Κατατέθηκε στο Ανώτατο Δικαστήριο της κομητείας Gwinnett, Τζόρτζια, στις 5 Ιουνίου, η μήνυση πιστεύεται ότι είναι η πρώτη που ισχυρίζεται ότι ένα chatbot AI όπως Το ChatGPT μπορεί να θεωρηθεί υπεύθυνο για δυσφήμιση. Ο Walters ζητά απροσδιόριστη χρηματική αποζημίωση από το OpenAI, αναφέρει το Gizmodo.

Διαβάστε επίσης: Οι ψεύτικες αναφορές του ChatGPT προσγειώνουν τον δικηγόρο των ΗΠΑ σε ζεστό νερό

«Το OpenAI δυσφήμησε τον πελάτη μου»

Ο δικηγόρος του Walters, John Monroe, ισχυρίστηκε ότι το ChatGPT «δημοσίευσε συκοφαντικό υλικό» για τον παρουσιαστή του προγράμματος «Armed American Radio» όταν απάντησε σε ερώτηση του Fred Riehl, αρχισυντάκτη της ιστοσελίδας όπλων AmmoLand, ο οποίος ερευνούσε μια νόμιμη υπόθεση SAF.

Ο Riehl έδωσε στο chatbot μια διεύθυνση URL που δείχνει μια υπόθεση που αφορούσε το SAF και Ουάσιγκτον ο γενικός εισαγγελέας Μπομπ Φέργκιουσον και του ζήτησε μια περίληψη. Το ChatGPT με σιγουριά, αλλά λανθασμένα, κατονόμασε τον Walters ως κατηγορούμενο και μάλιστα τον προσδιόρισε ως ταμία και οικονομικό διευθυντή της SAF, κάτι που δεν είναι.

Η περίληψη της εκκρεμούς υπόθεσης του ChatGPT περιλάμβανε τον ψευδή ισχυρισμό ότι Μαρκ Γουόλτερς υπεξαίρεσαν κεφάλαια από το Ίδρυμα Δεύτερης Τροποποίησης. Ο εκπομπός με έδρα τη Γεωργία λέει ότι ποτέ δεν υπεξαίρεσε χρήματα και ότι δεν έχει καμία σχέση με το SAF.

«Κάθε δήλωση γεγονότος στη σύνοψη που σχετίζεται με τον Walters είναι ψευδής», είπε η Monroe στο κοστούμι.

«Το OpenAI δυσφήμησε τον πελάτη μου και έφτιαξε εξωφρενικά ψέματα γι' αυτόν», ο δικηγόρος αργότερα είπε άλλα μέσα του κλάδου.

ChatGPT είναι ένα μεγάλο μοντέλο γλώσσας που αναπτύχθηκε από την OpenAI. Κυκλοφόρησε τον περασμένο Νοέμβριο και εκπαιδεύεται σε δισεκατομμύρια δεδομένα από το διαδίκτυο. Το chatbot μπορεί να εκτελέσει μια ποικιλία εργασιών, όπως τη δημιουργία κειμένου, τη μετάφραση γλωσσών και την επίλυση δύσκολων μαθηματικών προβλημάτων.

Ωστόσο, το ChatGPT είναι επιρρεπές σε "ψευδαισθήσεις», ο οποίος είναι ένας όρος που χρησιμοποιείται στη βιομηχανία της τεχνολογίας για να περιγράψει όταν τα chatbots AI παράγουν ψευδείς ή παραπλανητικές πληροφορίες, συχνά με σιγουριά.

«Ακόμα και τα μοντέλα τελευταίας τεχνολογίας εξακολουθούν να παράγουν λογικά λάθη, που συχνά ονομάζονται παραισθήσεις», έγραψε ο Karl Cobbe, ερευνητής του OpenAI, σε μια ανάρτηση. «Ο μετριασμός των παραισθήσεων είναι ένα κρίσιμο βήμα προς την οικοδόμηση ευθυγραμμισμένης AGI [τεχνητής γενικής νοημοσύνης]».

Διατήρηση λογαριασμών με ελαττωματική τεχνητή νοημοσύνη

Η ελάττωμα έχει την τάση να υπονομεύει τη χρησιμότητα μιας τέτοιας τεχνητά ευφυούς τεχνολογίας. Αλλά οι δημιουργοί τεχνητής νοημοσύνης, συμπεριλαμβανομένων των OpenAI και Google, συνέχισαν να προωθούν τα chatbots ως έναν νέο τρόπο λήψης πληροφοριών. Περιέργως, οι εταιρείες προειδοποίησαν επίσης ότι η παραγωγή τους δεν πρέπει να είναι αξιόπιστη.

Κατά τη διάρκεια της έρευνας του Fred Riehl, το ChatGPT συνέχισε να παράγει ψευδείς πληροφορίες, δημιουργώντας ακόμη και ολόκληρα αποσπάσματα για την αγωγή που ήταν εντελώς κατασκευασμένα. Όπως ανέφερε το Gizmodo, το εργαλείο AI έκανε λάθος ακόμη και τον αριθμό υπόθεσης.

Ο δημοσιογράφος αμφισβήτησε την AI σχετικά με τη σύνοψή της που ισχυριζόταν ότι ο Walters εμπλέκεται στην υπόθεση Second Amendment Foundation v. Ferguson, η οποία αμφισβητεί έναν κρατικό νόμο που απαγορεύει την πώληση όπλων επίθεσης. Το ChatGPT απάντησε: "Σίγουρα", ανά κοστούμι Walters.

"Ακολουθεί η παράγραφος από την καταγγελία που αφορά τον Walters: "Ο κατηγορούμενος Mark Walters ("Walters") είναι άτομο που κατοικεί στη Γεωργία. Ο Walters υπηρέτησε ως Ταμίας και Οικονομικός Διευθυντής της SAF τουλάχιστον από το 2012. Ο Walters έχει πρόσβαση στους τραπεζικούς λογαριασμούς και τα οικονομικά αρχεία της SAF και είναι υπεύθυνος για τη διατήρηση αυτών των αρχείων και την παροχή οικονομικών αναφορών στο διοικητικό συμβούλιο της SAF.

Ο Riehl δεν δημοσίευσε το άρθρο αλλά αντ' αυτού μοιράστηκε τις απαντήσεις της AI με τον ιδρυτή και αντιπρόεδρο της SAF, Allan Gottlieb, ο οποίος είπε ότι οι δηλώσεις ChatGPT ήταν ψεύτικες.

Στην αγωγή, ο δικηγόρος John Monroe είπε ότι «οι ισχυρισμοί του ChatGPT ήταν ψευδείς και κακόβουλοι» και έπληξαν τη φήμη του Walters. Θέλει οι εταιρείες που αναπτύσσουν chatbots AI να λογοδοτήσουν για τις παραπλανητικές πληροφορίες που παρέχονται από τις δημιουργίες τους.

«Ενώ η έρευνα και η ανάπτυξη στην τεχνητή νοημοσύνη είναι μια αξιόλογη προσπάθεια, είναι ανεύθυνο να απελευθερώνεται ένα σύστημα στο κοινό γνωρίζοντας ότι κατασκευάζει πληροφορίες που μπορούν να προκαλέσουν βλάβη», είπε η Monroe. Gizmodo.

Μήνυση του ChatGPT του OpenAI

Αλλά είναι δυνατόν ψευδείς πληροφορίες που δημιουργούνται από μεγάλα γλωσσικά μοντέλα όπως το ChatGPT να θεωρηθούν συκοφαντία σε ένα δικαστήριο; Ο Prosper Mwedzi, δικηγόρος στον τομέα της τεχνολογίας στο Υπουργείο Οικονομικών του Ηνωμένου Βασιλείου, είπε στο MetaNews ότι το ζήτημα είναι περίπλοκο.

«Αυτή είναι μια περίπλοκη ερώτηση γιατί [ChatGPT] λαμβάνει πληροφορίες από το Διαδίκτυο», είπε. «Επομένως, θα πίστευα ότι το άτομο που κάνει μήνυση θα ήταν καλύτερα να αναζητήσει την πηγή [είτε το OpenAI είτε τον αρχικό εκδότη του αναφερόμενου υλικού.]

«Το βλέπω σαν να ψάχνω κάτι στο Google και φέρνει μια πηγή με το δυσφημιστικό υλικό - προφανώς δεν θα έφταιγε η Google. Αλλά αν κάποιος χρησιμοποιεί το ChatGPT για να γράψει ένα συκοφαντικό άρθρο, τότε έγινε υπεύθυνος, καθώς δεν μπορεί να χρησιμοποιήσει μια υπεράσπιση ότι είναι ChatGPT».

Ο Mwedzi βλέπει λίγες πιθανότητες επιτυχίας με την αγωγή του Mark Walters. «Νομίζω ότι οι προοπτικές δεν είναι πολύ ισχυρές», δήλωσε.

Ο Eugene Volokh, καθηγητής νομικής στο Πανεπιστήμιο της Καλιφόρνια, στο Λος Άντζελες, ο οποίος γράφει ένα άρθρο σε περιοδικό σχετικά με τη νομική ευθύνη των μοντέλων τεχνητής νοημοσύνης, είπε ότι είναι πιθανό τα μοντέλα τεχνητής νοημοσύνης να θεωρηθούν νομικά υπεύθυνα για τις πράξεις τους.

«Το OpenAI αναγνωρίζει ότι μπορεί να υπάρχουν λάθη, αλλά το [ChatGPT] δεν χρεώνεται ως αστείο. δεν τιμολογείται ως μυθοπλασία. δεν τιμολογείται ως μαϊμούδες που πληκτρολογούν σε γραφομηχανή», είπε στο Gizmodo.

Αυξανόμενη τάση

Δεν είναι η πρώτη φορά που τα chatbot που υποστηρίζονται από τεχνητή νοημοσύνη έχουν αναπαράγει ψεύδη για πραγματικούς ανθρώπους. Τον περασμένο μήνα, ο αμερικανός δικηγόρος Steven A. Schwartz αντιμετωπίζουν πειθαρχική δίωξη αφού το δικηγορικό του γραφείο χρησιμοποίησε το ChatGPT για νομική έρευνα και ανέφερε έξι ψεύτικες υποθέσεις σε μια αγωγή.

Το θέμα ήρθε στο φως αφού ο Schwartz, ένας δικηγόρος με 30 χρόνια εμπειρίας, χρησιμοποίησε αυτές τις υποθέσεις ως προηγούμενο για να υποστηρίξει μια υπόθεση στην οποία ο πελάτης του Roberto Mata μήνυσε την κολομβιανή αεροπορική εταιρεία Avianca για αμέλεια που προκλήθηκε από υπάλληλο.

Τον Μάρτιο, ο Brian Hood, δήμαρχος του Hepburn Shire στην Αυστραλία, απειλείται να μηνύσει το OpenAI μετά το chatbot ChatGPT του, ισχυρίστηκε ψευδώς ότι είχε καταδικαστεί για δωροδοκία. Ο Χουντ δεν συμμετείχε στο σκάνδαλο της δωροδοκίας και μάλιστα ήταν ο πληροφοριοδότης που το εξέθεσε.

ΚΟΙΝΟΠΟΙΗΣΤΕ ΑΥΤΗ ΤΗΝ ΑΝΑΡΤΗΣΗ

Σφραγίδα ώρας:

Περισσότερα από MetaNews