Το OpenAI ζητά από την παγκόσμια υπηρεσία να ρυθμίσει την υπερκατασκοπία

Το OpenAI ζητά από την παγκόσμια υπηρεσία να ρυθμίσει την υπερκατασκοπία

Κόμβος πηγής: 2674707

Ένας διεθνής οργανισμός θα πρέπει να είναι υπεύθυνος για την επιθεώρηση και τον έλεγχο της τεχνητής γενικής νοημοσύνης για να διασφαλίσει ότι η τεχνολογία είναι ασφαλής για την ανθρωπότητα, σύμφωνα με κορυφαία στελέχη του κατασκευαστή GPT-4 OpenAI.

Ο Διευθύνων Σύμβουλος Sam Altman και οι συνιδρυτές Greg Brockman και Ilya Sutskever δήλωσαν ότι είναι «διανόητο» ότι η τεχνητή νοημοσύνη θα αποκτήσει εξαιρετικές ικανότητες που θα ξεπερνούν τους ανθρώπους την επόμενη δεκαετία.

«Όσον αφορά τόσο τα πιθανά θετικά όσο και τα αρνητικά, η υπερευφυΐα θα είναι πιο ισχυρή από άλλες τεχνολογίες με τις οποίες έπρεπε να αντιμετωπίσει η ανθρωπότητα στο παρελθόν. Μπορούμε να έχουμε ένα δραματικά πιο ευημερούν μέλλον. αλλά πρέπει να διαχειριστούμε τον κίνδυνο για να φτάσουμε εκεί», η τριάδα Έγραψε την Τρίτη.

Το κόστος κατασκευής μιας τέτοιας ισχυρής τεχνολογίας μειώνεται μόνο καθώς περισσότεροι άνθρωποι εργάζονται για την προώθησή της, υποστήριξαν. Προκειμένου να ελεγχθεί η πρόοδος, η ανάπτυξη θα πρέπει να εποπτεύεται από έναν διεθνή οργανισμό όπως ο Διεθνής Οργανισμός Ατομικής Ενέργειας (ΔΟΑΕ).

Ο ΔΟΑΕ ιδρύθηκε το 1957 σε μια εποχή που οι κυβερνήσεις φοβούνταν ότι θα αναπτυχθούν πυρηνικά όπλα κατά τη διάρκεια του Ψυχρού Πολέμου. Ο οργανισμός βοηθά στη ρύθμιση της πυρηνικής ενέργειας και θέτει εγγυήσεις για να διασφαλίσει ότι η πυρηνική ενέργεια δεν χρησιμοποιείται για στρατιωτικούς σκοπούς.

«Είναι πιθανό να χρειαστούμε τελικά κάτι σαν ΔΟΑΕ για προσπάθειες υπερκατασκοπίας. οποιαδήποτε προσπάθεια πάνω από ένα ορισμένο όριο ικανότητας (ή πόρων όπως ο υπολογισμός) θα πρέπει να υπόκειται σε μια διεθνή αρχή που μπορεί να επιθεωρήσει συστήματα, να απαιτήσει ελέγχους, να ελέγξει τη συμμόρφωση με τα πρότυπα ασφαλείας, να θέσει περιορισμούς στους βαθμούς ανάπτυξης και τα επίπεδα ασφάλειας κ.λπ. " αυτοι ειπαν.

Μια τέτοια ομάδα θα είναι υπεύθυνη για την παρακολούθηση της χρήσης υπολογιστών και ενέργειας, ζωτικών πόρων που απαιτούνται για την εκπαίδευση και τη λειτουργία μεγάλων και ισχυρών μοντέλων.

«Θα μπορούσαμε να συμφωνήσουμε συλλογικά ότι ο ρυθμός ανάπτυξης της ικανότητας τεχνητής νοημοσύνης στα σύνορα περιορίζεται σε ένα συγκεκριμένο ρυθμό ανά έτος», πρότεινε ο κορυφαίος του OpenAI. Οι εταιρείες θα πρέπει να συμφωνήσουν οικειοθελώς σε επιθεωρήσεις και ο οργανισμός θα πρέπει να επικεντρωθεί στη «μείωση του υπαρξιακού κινδύνου», όχι σε ρυθμιστικά ζητήματα που ορίζονται και ορίζονται από τους επιμέρους νόμους μιας χώρας.

Την περασμένη εβδομάδα, ο Altman πρότεινε την ιδέα ότι οι εταιρείες πρέπει να λάβουν άδεια για την κατασκευή μοντέλων με προηγμένες δυνατότητες πάνω από ένα συγκεκριμένο όριο σε μια Γερουσία ακοή. Η πρότασή του επικρίθηκε αργότερα, καθώς θα μπορούσε να επηρεάσει άδικα τα συστήματα AI που κατασκευάστηκαν από μικρότερες εταιρείες ή την κοινότητα ανοιχτού κώδικα που είναι λιγότερο πιθανό να έχουν τους πόρους για να ανταποκριθούν στις νομικές απαιτήσεις.

«Πιστεύουμε ότι είναι σημαντικό να επιτραπεί σε εταιρείες και έργα ανοιχτού κώδικα να αναπτύσσουν μοντέλα κάτω από ένα σημαντικό όριο ικανότητας, χωρίς το είδος της ρύθμισης που περιγράφουμε εδώ (συμπεριλαμβανομένων των επαχθών μηχανισμών όπως οι άδειες ή οι έλεγχοι)», είπαν.

Ο Έλον Μασκ στα τέλη Μαρτίου ήταν ένας από τους 1,000 υπογράφοντες μια ανοιχτή επιστολή που ζητούσε εξάμηνη παύση στην ανάπτυξη και εκπαίδευση AI πιο ισχυρής από το GPT4 λόγω των πιθανών κινδύνων για την ανθρωπότητα, κάτι που ο Altman επιβεβαίωσε στα μέσα Απριλίου έκανε.

«Τα ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε σίγουροι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι», ανέφερε η επιστολή.

Ο διευθύνων σύμβουλος της Alphabet και της Google, Sundar Pichai, έγραψε ένα άρθρο στους Financial Times το Σαββατοκύριακο, ρητό: «Εξακολουθώ να πιστεύω ότι η τεχνητή νοημοσύνη είναι πολύ σημαντική για να μην ρυθμιστεί, και πολύ σημαντική για να μην ρυθμιστεί σωστά». ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο