Οι ειδικοί προειδοποιούν για εξαφάνιση από την τεχνητή νοημοσύνη εάν δεν ληφθούν μέτρα τώρα

Οι ειδικοί προειδοποιούν για εξαφάνιση από την τεχνητή νοημοσύνη εάν δεν ληφθούν μέτρα τώρα

Κόμβος πηγής: 2688105

Υπάρχει μια άλλη καταστροφική ανοιχτή επιστολή σχετικά με την τεχνητή νοημοσύνη που κάνει τον γύρο. Αυτή τη φορά, ένα ευρύ φάσμα ηγετών της τεχνολογίας, διακεκριμένων τεχνολογιών ML, ακόμα και μερικών διασημοτήτων έχουν υπογράψει για να παροτρύνουν τον κόσμο να λάβει πιο σοβαρά υπόψη τις υποτιθέμενες απειλές σε επίπεδο εξαφάνισης που θέτει η τεχνητή νοημοσύνη. 

Πιο εύστοχα μια δήλωση, το μήνυμα από το Centre for AI Safety (CAIS) υπογεγραμμένο από άτομα όπως το AI pioneer Τζέφρι Χίντιν, ο Διευθύνων Σύμβουλος της OpenAI Sam Altman, ο γκουρού κρυπτογράφησης Martin Hellman, ο CTO της Microsoft Kevin Scott και άλλοι είναι ενιαία δηλωτική πρόταση πρόβλεψη της αποκάλυψης, αν πάει απαρατήρητη:

«Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελεί παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος». 

Γιατί τόσο σύντομη; Ο στόχος ήταν «να δείξουμε τον ευρύ και αυξανόμενο συνασπισμό επιστημόνων τεχνητής νοημοσύνης, ηγετών τεχνολογίας και καθηγητών που ανησυχούν για τους κινδύνους εξαφάνισης της τεχνητής νοημοσύνης. Χρειαζόμαστε ευρεία αναγνώριση των διακυβεύσεων, ώστε να μπορούμε να έχουμε χρήσιμες συζητήσεις πολιτικής», είπε ο διευθυντής του CAIS Dan Hendrycks. Το μητρώο.

Το CAIS δεν κάνει καμία αναφορά στην τεχνητή γενική νοημοσύνη (AGI). κατάλογο των κινδύνων της τεχνητής νοημοσύνης, σημειώνουμε. Και τα μοντέλα τρέχουσας γενιάς, όπως το ChatGPT, δεν αποτελούν αποκαλυπτική απειλή για την ανθρωπότητα, μας είπε ο Hendrycks. Η προειδοποίηση αυτή την εβδομάδα είναι για το τι μπορεί να ακολουθήσει.

«Οι τύποι καταστροφικών απειλών στους οποίους αναφέρεται αυτή η δήλωση σχετίζονται με μελλοντικά προηγμένα συστήματα τεχνητής νοημοσύνης», είπε ο Hendrycks. Πρόσθεσε ότι οι απαραίτητες προόδους που απαιτούνται για να φτάσουμε στο επίπεδο της «αποκαλυπτικής απειλής» μπορεί να είναι μόλις δύο έως δέκα χρόνια μακριά, όχι αρκετές δεκαετίες. «Πρέπει να προετοιμαστούμε τώρα. Ωστόσο, τα συστήματα AI που θα μπορούσαν να προκαλέσουν καταστροφικά αποτελέσματα δεν χρειάζεται να είναι AGI», είπε. 

Γιατί έτσι κι αλλιώς οι άνθρωποι είναι απόλυτα ειρηνικοί

Ενα σαν απειλή είναι ο οπλισμός ή η ιδέα ότι κάποιος θα μπορούσε να επαναπροσδιορίσει την καλοπροαίρετη τεχνητή νοημοσύνη ως εξαιρετικά καταστροφική, όπως η χρήση ενός bot ανακάλυψης φαρμάκων για την ανάπτυξη χημικών ή βιολογικών όπλων ή η χρήση ενισχυτικής μάθησης για μάχες με βάση τη μηχανή. Τούτου λεχθέντος, οι άνθρωποι είναι ήδη αρκετά ικανοί να κατασκευάσουν αυτά τα είδη όπλων, τα οποία μπορούν να απομακρύνουν ένα άτομο, μια γειτονιά, μια πόλη ή μια χώρα.

Η τεχνητή νοημοσύνη θα μπορούσε επίσης να εκπαιδευτεί για να επιδιώκει τους στόχους της χωρίς να λαμβάνει υπόψη τις ατομικές ή κοινωνικές αξίες, μας προειδοποιούν. Θα μπορούσε να «αδυνατίσει» ανθρώπους που καταλήγουν να παραχωρούν δεξιότητες και ικανότητες σε αυτοματοποιημένες μηχανές, προκαλώντας ανισορροπία ισχύος μεταξύ των ελεγκτών της τεχνητής νοημοσύνης και εκείνων που εκτοπίζονται από την αυτοματοποίηση, ή να χρησιμοποιηθούν για τη διάδοση παραπληροφόρησης, σκόπιμα ή αλλιώς.

Και πάλι, καμία από τις τεχνητές νοημοσύνης που εμπλέκονται σε αυτό δεν χρειάζεται να είναι γενική και δεν είναι πολύ δύσκολο να δούμε τη δυνατότητα της τεχνητής νοημοσύνης της τρέχουσας γενιάς να εξελιχθεί για να θέσει τους κινδύνους για τους οποίους ανησυχεί το CAIS. Μπορεί να έχετε τις δικές σας απόψεις σχετικά με το πόσο πραγματικά καταστροφικό ή ικανό θα μπορούσε ή θα είναι το λογισμικό και τι θα μπορούσε πραγματικά να επιτύχει.

Είναι ζωτικής σημασίας, λέει το επιχείρημα του CAIS, να εξετάσει και να αντιμετωπίσει τις αρνητικές επιπτώσεις της τεχνητής νοημοσύνης που γίνονται ήδη αισθητές και να μετατρέψει αυτές τις υπάρχουσες επιπτώσεις σε προοπτική. «Καθώς αντιμετωπίζουμε άμεσους κινδύνους τεχνητής νοημοσύνης… η βιομηχανία τεχνητής νοημοσύνης και οι κυβερνήσεις σε όλο τον κόσμο πρέπει επίσης να αντιμετωπίσουν σοβαρά τον κίνδυνο ότι τα μελλοντικά AI θα μπορούσαν να αποτελέσουν απειλή για την ανθρώπινη ύπαρξη», δήλωσε ο Hendrycks. είπε σε μια δήλωση.

«Ο κόσμος συνεργάστηκε επιτυχώς για τον μετριασμό των κινδύνων που σχετίζονται με τον πυρηνικό πόλεμο. Απαιτείται το ίδιο επίπεδο προσπάθειας για την αντιμετώπιση των κινδύνων που θέτουν τα μελλοντικά συστήματα τεχνητής νοημοσύνης», προέτρεψε ο Hendrycks, με μια λίστα εταιρικών, ακαδημαϊκών και σκεπτόμενων ηγετών να τον υποστηρίζουν. 

Ο Μασκ δεν είναι στο πλοίο

Άλλοι υπογράφοντες είναι ο κύριος επιστήμονας του Google DeepMind, Ian Goodfellow, οι φιλόσοφοι David Chalmers και Daniel Dennett, ο συγγραφέας και blogger Sam Harris και ο πρώην μουσικός/Elon Musk, Grimes. Μιλώντας για τον ίδιο τον άνδρα, η υπογραφή του Μασκ απουσιάζει. 

Ο Διευθύνων Σύμβουλος του Twitter ήταν μεταξύ αυτών που υπέγραψαν ένα ανοιχτή επιστολή που δημοσιεύτηκε από το Future of Life Institute τον περασμένο Μάρτιο προτρέποντας α εξάμηνη παύση σχετικά με την εκπαίδευση συστημάτων AI «πιο ισχυρά από το GPT-4». Όπως ήταν αναμενόμενο, η υπογραφή του Διευθύνοντος Συμβούλου της OpenAI, Άλτμαν, απουσίαζε ότι συγκεκριμένη επιστολή, φαινομενικά επειδή κάλεσε την εταιρεία του απευθείας. 

Έκτοτε έχει εκδοθεί το OpenAI τις δικές του προειδοποιήσεις σχετικά με τις απειλές που θέτει η προηγμένη τεχνητή νοημοσύνη και ζήτησε τη σύσταση ενός παγκόσμιου παρατηρητή παρόμοιου με τον Διεθνή Οργανισμό Ατομικής Ενέργειας για τη ρύθμιση της χρήσης της τεχνητής νοημοσύνης.

Αυτή η προειδοποίηση και το ρυθμιστικό κάλεσμα, σε μια περίπτωση ιστορικά κακού συγχρονισμού, ήρθε την ίδια μέρα ο Άλτμαν απειλείται να τραβήξει το OpenAI, και το ChatGPT μαζί του, από την ΕΕ έναντι του μπλοκ AI Act. Οι κανόνες που υποστηρίζει είναι ένα πράγμα, αλλά ο Altman είπε στις Βρυξέλλες ότι η ιδέα τους για τον περιορισμό της τεχνητής νοημοσύνης ήταν μια ρυθμιστική γέφυρα πολύ μακριά, σας ευχαριστώ πολύ. 

βουλευτές της ΕΕ απάντησε λέγοντας ότι δεν θα υπαγορεύονται από το OpenAI και ότι εάν η εταιρεία δεν μπορεί να συμμορφωθεί με τους βασικούς κανόνες διακυβέρνησης και διαφάνειας, «τα συστήματά της δεν είναι κατάλληλα για την ευρωπαϊκή αγορά», υποστήριξε ο Ολλανδός ευρωβουλευτής Kim van Sparrentak. 

Ζητήσαμε από το OpenAI διευκρινίσεις σχετικά με τις θέσεις του Altman και θα ενημερώσουμε αυτήν την ιστορία εάν μάθουμε ξανά. ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο