Το OpenAI αποκλείει τη χρήση σε εκλογές και την καταστολή ψηφοφόρων

Το OpenAI αποκλείει τη χρήση σε εκλογές και την καταστολή ψηφοφόρων

Κόμβος πηγής: 3073710

Σε μια αποφασιστική κίνηση για την καταπολέμηση της παραπληροφόρησης στις εκλογές, το OpenAI δήλωσε α αυστηρή στάση ενάντια στη χρήση των εργαλείων παραγωγής τεχνητής νοημοσύνης σε προεκλογικές εκστρατείες και τακτικές καταστολής ψηφοφόρων.

Αυτή η ανακοίνωση έρχεται ως ένα ουσιαστικό βήμα προς τη διασφάλιση της ακεραιότητας πολλών βασικών εκλογών που έχουν προγραμματιστεί για το 2024.

Διαβάστε επίσης: Το OpenAI διαπραγματεύεται την αδειοδότηση περιεχομένου ειδήσεων με τα CNN, Fox και Time

Καταπολέμηση της κατάχρησης με καινοτομία και πολιτική

Το OpenAI έχει ξεκινήσει μια στρατηγική για να προστατεύσει την τεχνολογία του από την εκμετάλλευση για τη χειραγώγηση των εκλογικών αποτελεσμάτων. Η εταιρεία έχει δημιουργήσει μια εξειδικευμένη ομάδα που εστιάζει σε ζητήματα που σχετίζονται με τις εκλογές, συγχωνεύοντας την τεχνογνωσία από διάφορα τμήματα, συμπεριλαμβανομένων νομικών, μηχανικών και πολιτικών. Ο πρωταρχικός στόχος αυτής της ομάδας είναι να εντοπίσει και να μετριάσει την πιθανή κατάχρηση της τεχνητής νοημοσύνης στις εκλογές.

«Έχουμε μια διαλειτουργική προσπάθεια αφιερωμένη στο εκλογικό έργο, συγκεντρώνοντας τεχνογνωσία από τα συστήματα ασφαλείας μας, τις πληροφορίες απειλών, τη νομική, τη μηχανική και τις ομάδες πολιτικής».

Η απειλή της παραπληροφόρησης στην πολιτική δεν είναι νέα, ωστόσο η έλευση της τεχνολογίας AI παρουσιάζει άνευ προηγουμένου προκλήσεις. Αναγνωρίζοντας αυτό, το OpenAI λαμβάνει προληπτικά μέτρα. Η εταιρεία σχεδιάζει να χρησιμοποιήσει έναν συνδυασμό τεχνικών όπως η κόκκινη ομαδοποίηση, η αφοσίωση των χρηστών και τα προστατευτικά κιγκλιδώματα. Συγκεκριμένα η εικόνα τους εργαλείο παραγωγής, DALL-E, έχει ενημερωθεί για να αποτρέψει τη δημιουργία εικόνων που απεικονίζουν αληθινά πρόσωπα, συμπεριλαμβανομένων πολιτικών υποψηφίων.

"Το DALL·E έχει προστατευτικά κιγκλιδώματα για να απορρίψει αιτήματα που ζητούν τη δημιουργία εικόνας πραγματικών ανθρώπων, συμπεριλαμβανομένων των υποψηφίων."

Το OpenAI αναθεωρεί συνεχώς τις πολιτικές χρήστη του για να συμβαδίζει με το εξελισσόμενο τοπίο της τεχνολογίας AI και την πιθανή κακή χρήση του. Οι ενημερωμένες πολιτικές ασφαλείας της περιορίζουν πλέον ρητά την ανάπτυξη εφαρμογών τεχνητής νοημοσύνης για πολιτικές εκστρατείες και λόμπι. Επιπλέον, έχουν ληφθεί μέτρα για να αποτραπεί η δημιουργία chatbot που μιμούνται πραγματικούς ανθρώπους ή οργανισμούς.

Ενίσχυση της διαφάνειας και της υπευθυνότητας

Ένα βασικό στοιχείο της στρατηγικής του OpenAI είναι η εισαγωγή ενός ταξινομητή προέλευσης για το εργαλείο DALL-E. Αυτή η δυνατότητα, αυτή τη στιγμή σε δοκιμή beta, μπορεί να ανιχνεύσει εικόνες που δημιουργούνται από το DALL-E. Η εταιρεία στοχεύει να καταστήσει αυτό το εργαλείο προσβάσιμο σε δημοσιογράφους, πλατφόρμες και ερευνητές για να ενισχύσει τη διαφάνεια στο περιεχόμενο που δημιουργείται από AI.

«Σκοπεύουμε να το καταστήσουμε σύντομα διαθέσιμο στην πρώτη μας ομάδα δοκιμαστών—συμπεριλαμβανομένων δημοσιογράφων, πλατφορμών και ερευνητών—για σχόλια».

Το OpenAI ενσωματώνει επίσης την αναφορά ειδήσεων σε πραγματικό χρόνο ChatGPT. Αυτή η ενοποίηση στοχεύει να παρέχει στους χρήστες ακριβείς και έγκαιρες πληροφορίες, ενισχύοντας τη διαφάνεια γύρω από τις πηγές πληροφοριών που παρέχονται από την τεχνητή νοημοσύνη.

Σε μια κοινή προσπάθεια με την Εθνική Ένωση Υπουργών Εξωτερικών στις ΗΠΑ, το OpenAI επικεντρώνεται στην αποτροπή της τεχνολογίας του από το να αποθαρρύνει τη συμμετοχή στις εκλογές. Η ομαδική εργασία περιλαμβάνει την κατεύθυνση των χρηστών chatbot που υποστηρίζονται από GPT σε αξιόπιστους ιστότοπους πληροφοριών ψηφοφορίας, όπως το CanIVote.org.

Οι αντίπαλοι ακολουθούν το παράδειγμά τους στον αγώνα AI

Η ανακοίνωση του OpenAI έχει δημιουργήσει προηγούμενο στον κλάδο της τεχνητής νοημοσύνης, με ανταγωνιστές όπως Google LLC και η Meta Platforms Inc. εφαρμόζουν επίσης μέτρα για την καταπολέμηση της παραπληροφόρησης που διαδίδεται μέσω των τεχνολογιών τους. Αυτή η συλλογική προσπάθεια από τους ηγέτες του κλάδου σηματοδοτεί μια αυξανόμενη συνειδητοποίηση και ευθύνη απέναντι στον πιθανό αντίκτυπο της τεχνητής νοημοσύνης στις δημοκρατικές διαδικασίες.

Είναι όμως αυτό αρκετό; Ο Charles King της Pund-IT Inc. εγείρει ένα κρίσιμο σημείο, αμφισβητώντας εάν αυτά τα μέτρα είναι επίκαιρα ή αντιδραστικά. Υποστηρίζει ότι οι ανησυχίες σχετικά με την παραπληροφόρηση που δημιουργείται από την τεχνητή νοημοσύνη υπάρχουν εδώ και χρόνια και η πρόσφατη ανακοίνωση του OpenAI μπορεί να θεωρηθεί πολύ μικρή, πολύ αργά. Αυτή η προοπτική προκαλεί έναν βαθύτερο προβληματισμό σχετικά με τον ρόλο και την ευθύνη των προγραμματιστών AI στο πολιτικό τοπίο.

«Έτσι, στην καλύτερη περίπτωση, αυτή η ανακοίνωση υποδηλώνει ότι το OpenAI κοιμόταν στο διακόπτη. Αλλά στη χειρότερη, μοιάζει με ένα τελετουργικό πλυσίματος χεριών που το OpenAI μπορεί να υποδείξει όταν η γενετική τεχνητή νοημοσύνη χτυπά τον θαυμαστή κατά τις επερχόμενες παγκόσμιες εκλογές φέτος».

Σφραγίδα ώρας:

Περισσότερα από MetaNews