Η ρυθμιστική αρχή των ΗΠΑ εξετάζει το ChatGPT του OpenAI για τη διάδοση ψεμάτων

Η ρυθμιστική αρχή των ΗΠΑ εξετάζει το ChatGPT του OpenAI για τη διάδοση ψεμάτων

Κόμβος πηγής: 2764806

Η Ομοσπονδιακή Επιτροπή Εμπορίου των ΗΠΑ (FTC) ξεκίνησε έρευνα στο OpenAI για πιθανές παραβιάσεις των νόμων για την προστασία των καταναλωτών που σχετίζονται με το chatbot AI ChatGPT, το οποίο κατηγορείται για διάδοση ψευδών πληροφοριών και παραβίαση των κανόνων απορρήτου δεδομένων.

Σύμφωνα με δημοσίευμα της Washington Post, η εποπτική αρχή ανταγωνισμού έστειλε μια επιστολή 20 σελίδων στο OpenAI ζητώντας λεπτομερείς πληροφορίες για τις επιχειρηματικές της δραστηριότητες, συμπεριλαμβανομένης της πολιτικής απορρήτου της, της τεχνολογίας AI. μέτρα και διαδικασίες ασφάλειας δεδομένων.

Η επιστολή είναι η πιο πρόσφατη κίνηση των ρυθμιστικών αρχών για τον έλεγχο των πιθανών κινδύνων της γενετικής τεχνητής νοημοσύνης, ενός τύπου τεχνητής νοημοσύνης που μπορεί να χρησιμοποιηθεί για τη δημιουργία ρεαλιστικού και πειστικού κειμένου, εικόνων και βίντεο. ChatGPT ξεκίνησε με μεγάλη αναγνώριση τον Νοέμβριο, πυροδοτώντας έναν «αγώνα εξοπλισμών τεχνητής νοημοσύνης».

Διαβάστε επίσης: Το Bard AI Chatbot της Google διαβάζει τώρα εικόνες και μιλάει, επεκτείνεται στην ΕΕ

Το ChatGPT κατηγορείται ότι προκάλεσε βλάβη στους χρήστες

Ανά αναφέρουν, η FTC διερευνά εάν το ChatGPT προκάλεσε βλάβη στους ανθρώπους παρέχοντας λάθος απαντήσεις στις ερωτήσεις τους. Θέλει να μάθει εάν η εταιρεία «εμπλακεί σε αθέμιτες ή παραπλανητικές πρακτικές απορρήτου ή ασφάλειας δεδομένων» που προκάλεσαν «βλάβη στη φήμη» των χρηστών.

Η Ομοσπονδιακή Επιτροπή Εμπορίου ρώτησε την OpenAI σχετικά με τις διασφαλίσεις που έθεσε σε εφαρμογή για να αποτρέψει τα μοντέλα τεχνητής νοημοσύνης της να «δημιουργούν δηλώσεις για πραγματικά άτομα που είναι ψευδή, παραπλανητικά ή απαξιωτικά».

Ο ιδρυτής και διευθύνων σύμβουλος του OpenAI, Sam Altman, εξέφρασε την απογοήτευσή του που έμαθε για την έρευνα της FTC μόνο μέσω διαρροής στην Washington Post. Γραφή στο Twitter, ο Altman είπε ότι η κίνηση «δεν θα βοηθήσει στην οικοδόμηση εμπιστοσύνης», αλλά πρόσθεσε ότι η εταιρεία θα συνεργαστεί με την FTC.

«Είναι πολύ σημαντικό για εμάς η τεχνολογία μας να είναι ασφαλής και υπέρ των καταναλωτών και είμαστε σίγουροι ότι ακολουθούμε το νόμο», είπε. «Προστατεύουμε το απόρρητο των χρηστών και σχεδιάζουμε τα συστήματά μας για να μαθαίνουμε για τον κόσμο και όχι για ιδιώτες».

Ο Άλτμαν μίλησε επίσης για την τελευταία τεχνολογία του OpenAI, το GPT-4. Είπε ότι το μοντέλο «χτίστηκε πάνω από χρόνια έρευνας για την ασφάλεια και πέρασε 6+ μήνες αφότου ολοκληρώσαμε την αρχική εκπαίδευση, καθιστώντας το ασφαλέστερο και πιο ευθυγραμμισμένο πριν το κυκλοφορήσει».

«Είμαστε διαφανείς σχετικά με τους περιορισμούς της τεχνολογίας μας, ειδικά όταν υστερούμε», τόνισε ο Διευθύνων Σύμβουλος.

Κατά τη στιγμή της σύνταξης, η Ομοσπονδιακή Επιτροπή Εμπορίου δεν είχε δημοσιεύσει κανένα επίσημο σχόλιο ακόμη.

Περισσότεροι νομικοί πονοκέφαλοι για το OpenAI

Η έρευνα FTC δεν είναι η μόνη νομική πρόκληση OpenAI πρέπει να ανησυχεί. Όπως προηγουμένως το MetaNews αναφερθεί, το OpenAI μήνυσε για 3 δισεκατομμύρια δολάρια σε ομαδική αγωγή που κατηγορούσε τον δημιουργό του ChatGPT για κλοπή δεδομένων χρηστών.

Σύμφωνα με το καταγγελία που κατατέθηκε σε ομοσπονδιακό δικαστήριο της Καλιφόρνια στις 28 Ιουνίου, η OpenAI φέρεται να χρησιμοποίησε «κλεμμένες ιδιωτικές πληροφορίες» για να «εκπαιδεύσει και να αναπτύξει» τα προϊόντα της, συμπεριλαμβανομένων των ChatGPT 3.5, ChatGPT 4, Dall-E και Vall-E.

Την περασμένη εβδομάδα, η κωμικός Sarah Silverman και δύο άλλοι συγγραφείς κατατεθεί μήνυση κατά των OpenAI και Meta, με τον ισχυρισμό ότι τα συστήματα τεχνητής νοημοσύνης των εταιρειών εκπαιδεύτηκαν σε υλικό που προστατεύεται από πνευματικά δικαιώματα από τα βιβλία τους χωρίς την άδειά τους.

Οι συγγραφείς ισχυρίζονται ότι οι εταιρείες χρησιμοποίησαν «σκιώδεις βιβλιοθήκες» υλικού που προστατεύεται από πνευματικά δικαιώματα για να εκπαιδεύσουν τα συστήματα τεχνητής νοημοσύνης τους και ότι αυτό συνιστά παραβίαση πνευματικών δικαιωμάτων.

Κανονιστικές ανησυχίες

Η ταχεία ανάπτυξη της τεχνητής νοημοσύνης έχει εγείρει ανησυχίες σχετικά με τους πιθανούς κινδύνους της τεχνολογίας, όπως μεροληψία, διακρίσεις και παραβιάσεις της ιδιωτικής ζωής. Ως αποτέλεσμα, οι ρυθμιστικές αρχές σε όλο τον κόσμο αρχίζουν να δίνουν ιδιαίτερη προσοχή στην αναδυόμενη βιομηχανία.

Οι κυβερνήσεις εξετάζουν πώς οι υπάρχοντες κανονισμοί, όπως αυτοί που διέπουν τα πνευματικά δικαιώματα και το απόρρητο των δεδομένων, μπορούν να εφαρμοστούν στην τεχνητή νοημοσύνη. Εξετάζουν επίσης νέους κανόνες που μπορεί να χρειαστούν. Δύο βασικοί τομείς εστίασης είναι τα δεδομένα που τροφοδοτούνται σε μοντέλα τεχνητής νοημοσύνης και το περιεχόμενο που δημιουργούν.

Στις Ηνωμένες Πολιτείες, ο ηγέτης της Πλειοψηφίας στη Γερουσία, Τσακ Σούμερ, ζήτησε «συνολική νομοθεσία» για τη διασφάλιση διασφαλίσεων για την τεχνητή νοημοσύνη, ανέφερε η Washington Post. Δεσμεύτηκε επίσης να πραγματοποιήσει μια σειρά από φόρουμ αργότερα φέτος με στόχο να «θέσουν ένα νέο θεμέλιο για την πολιτική AI».

Πρόσφατα ο Πάπας Φραγκίσκος κυκλοφόρησε κατευθυντήριες γραμμές για την υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης. Κίνα και Ευρώπη είναι επίσης αυστηρότεροι και τελειοποιούν τους κανονισμούς τεχνητής νοημοσύνης.

ΚΟΙΝΟΠΟΙΗΣΤΕ ΑΥΤΗ ΤΗΝ ΑΝΑΡΤΗΣΗ

Σφραγίδα ώρας:

Περισσότερα από MetaNews