Οι σύμβουλοι του Ινδού πρωθυπουργού λένε ότι η τεχνητή νοημοσύνη μπορεί να προκαλέσει «μαζική σχιζοφρένεια»

Οι σύμβουλοι του Ινδού πρωθυπουργού λένε ότι η τεχνητή νοημοσύνη μπορεί να προκαλέσει «μαζική σχιζοφρένεια»

Κόμβος πηγής: 3091579

Το Οικονομικό Συμβουλευτικό Συμβούλιο του Πρωθυπουργού της Ινδίας (EACPM) συνέταξε ένα έγγραφο προειδοποιώντας ότι οι τρέχοντες παγκόσμιοι κανονισμοί τεχνητής νοημοσύνης είναι πιθανό να είναι αναποτελεσματικοί και συνέστησε τη ρύθμιση της τεχνολογίας με εναλλακτικές τακτικές – όπως αυτές που χρησιμοποιούνται στις χρηματοπιστωτικές αγορές.

Το Συμβούλιο ανησυχεί πολύ για την τεχνητή νοημοσύνη. Το έγγραφό του προειδοποιεί «Μέσω ενός συνδυασμού παρακολούθησης, πειστικών μηνυμάτων και δημιουργίας συνθετικών μέσων, η κακόβουλη τεχνητή νοημοσύνη θα μπορούσε να ελέγχει όλο και περισσότερο τα οικοσυστήματα πληροφοριών και ακόμη και να κατασκευάζει εξατομικευμένες παραπλανητικές πραγματικότητες για να εξαναγκάσει την ανθρώπινη συμπεριφορά, προκαλώντας μαζική σχιζοφρένεια».

Ο οργανισμός επικρίνει την προσέγγιση των ΗΠΑ για την τεχνητή νοημοσύνη ως υπερβολικά απεριόριστη, ότι το Ηνωμένο Βασίλειο παρουσιάζει κινδύνους επειδή είναι υπέρ της καινοτομίας και της αδράνειας, και τους κανόνες τεχνητής νοημοσύνης της ΕΕ ως ελαττωματικούς λόγω του διαχωρισμού των χωρών μελών του μπλοκ και της υιοθέτησης διαφορετικών εντάσεων και εφαρμογών μέτρα επιβολής.

Το έγγραφο υποστηρίζει επίσης ότι η τάση της Κίνας να ρυθμίζει με «ένα παντοδύναμο συγκεντρωτικό γραφειοκρατικό σύστημα» είναι εσφαλμένη – όπως αποδεικνύεται από την «πιθανή προέλευση διαρροής εργαστηρίου του COVID-19».

Βρισκόμαστε στο μάτι εδώ, άνθρωποι.

(Για την ιστορία, το Γραφείο του Διευθυντή Εθνικής Πληροφοριών των ΗΠΑ έχει δεν βρήκε ένδειξη ότι ο ιός διέρρευσε από ένα κινεζικό εργαστήριο.)

Αλλά αποκλίνουμε.

Το Συμβούλιο προτείνει η τεχνητή νοημοσύνη να θεωρείται ένα «αποκεντρωμένο αυτό-οργανωτικό σύστημα [που εξελίσσεται] μέσω βρόχων ανάδρασης, μετάβασης φάσης και ευαισθησίας στις αρχικές συνθήκες» και θέτει άλλα παραδείγματα τέτοιων συστημάτων – όπως μη γραμμικές οντότητες που εμφανίζονται στις χρηματοπιστωτικές αγορές, η συμπεριφορά των αποικιών μυρμηγκιών , ή μοτίβα κυκλοφορίας.

«Οι παραδοσιακές μέθοδοι υπολείπονται λόγω της μη γραμμικής, απρόβλεπτης φύσης της τεχνητής νοημοσύνης. Τα συστήματα AI είναι παρόμοια με τα Complex Adaptive Systems (CAS), όπου τα στοιχεία αλληλεπιδρούν και εξελίσσονται με απρόβλεπτους τρόπους.» εξήγησε [PDF] το συμβούλιο.

Το Συμβούλιο δεν θέλει να βασίζεται σε μέτρα «εκ των προτέρων», καθώς είναι αδύνατο να γνωρίζουμε εκ των προτέρων τον κίνδυνο που θα παρουσιάσει ένα σύστημα τεχνητής νοημοσύνης – η συμπεριφορά του είναι αποτέλεσμα πάρα πολλών παραγόντων.

Ως εκ τούτου, το έγγραφο προτείνει στην Ινδία να υιοθετήσει πέντε ρυθμιστικά μέτρα:

  • Τοποθέτηση προστατευτικών κιγκλιδωμάτων και χωρισμάτων, το οποίο θα πρέπει να διασφαλίζει ότι οι τεχνολογίες τεχνητής νοημοσύνης δεν υπερβαίνουν την προβλεπόμενη λειτουργία τους ούτε παραβιάζουν επικίνδυνα εδάφη – όπως η λήψη αποφάσεων για τον πυρηνικό οπλισμό. Εάν παραβιάσουν με κάποιο τρόπο αυτό το προστατευτικό κιγκλίδωμα σε ένα σύστημα, τα χωρίσματα είναι εκεί για να βεβαιωθούν ότι δεν εξαπλώνεται.
  • Εξασφάλιση μη αυτόματων παρακάμψεων και σημείων τσοκ εξουσιοδότησης που κρατούν τους ανθρώπους υπό τον έλεγχο και τους κρατούν ασφαλείς με έλεγχο ταυτότητας πολλαπλών παραγόντων και μια πολυεπίπεδη διαδικασία αναθεώρησης για τους ανθρώπους που λαμβάνουν αποφάσεις.
  • Διαφάνεια και επεξήγηση με μέτρα όπως η ανοιχτή αδειοδότηση για βασικούς αλγόριθμους για την προώθηση ενός φιλικού περιβάλλοντος για τον έλεγχο, τακτικούς ελέγχους και αξιολογήσεις και τυποποιημένη τεκμηρίωση ανάπτυξης.
  • Διακεκριμένη λογοδοσία μέσω προκαθορισμένων πρωτοκόλλων ευθύνης, υποχρεωτικής τυποποιημένης αναφοράς περιστατικών και μηχανισμών διερεύνησης.
  • Θέσπιση εξειδικευμένου ρυθμιστικού φορέαπου έχει μια ευρεία εντολή, υιοθετεί μια προσέγγιση που βασίζεται στην ανάδραση, παρακολουθεί και παρακολουθεί τη συμπεριφορά του συστήματος τεχνητής νοημοσύνης, ενσωματώνει αυτοματοποιημένα συστήματα ειδοποίησης και δημιουργεί ένα εθνικό μητρώο.

Το Συμβούλιο συνέστησε να αναζητηθούν ιδέες σε άλλα συστήματα CAS σχετικά με τον τρόπο υλοποίησης των ιδεών του – κυρίως στις χρηματοπιστωτικές αγορές.

«Οι γνώσεις από τη διακυβέρνηση των χαοτικών συστημάτων όπως οι χρηματοπιστωτικές αγορές καταδεικνύουν εφικτές προσεγγίσεις ρύθμισης για πολύπλοκες τεχνολογίες», παρατηρεί το έγγραφο, προτείνοντας ότι οι ειδικοί ρυθμιστές τεχνητής νοημοσύνης θα μπορούσαν να βασιστούν σε ρυθμιστικές αρχές χρηματοοικονομικών αρχών όπως η SEBI της Ινδίας ή η SEC των ΗΠΑ.

Ακριβώς όπως αυτοί οι φορείς επιβάλλουν παύσεις διαπραγμάτευσης όταν οι αγορές κινδυνεύουν, οι ρυθμιστικές αρχές θα μπορούσαν να υιοθετήσουν παρόμοια «σημεία πνιγμού» στα οποία η τεχνητή νοημοσύνη θα οδηγούσε στο τακούνι. Η υποχρεωτική χρηματοοικονομική αναφορά είναι ένα καλό μοντέλο για το είδος της γνωστοποίησης που θα μπορούσαν να υποχρεωθούν να υποβάλουν οι χειριστές τεχνητής νοημοσύνης.

Οι ανησυχίες των συγγραφέων τροφοδοτούνται από την πεποίθηση ότι η αυξανόμενη πανταχού παρουσία του AI – σε συνδυασμό με την αδιαφάνεια των λειτουργιών του – σημαίνει ότι κρίσιμες υποδομές, αμυντικές επιχειρήσεις και πολλά άλλα πεδία κινδυνεύουν.

Μεταξύ των κινδύνων που σκιαγραφούν είναι η «δραπέτη τεχνητή νοημοσύνη» όπου τα συστήματα μπορεί να αυτοβελτιωθούν αναδρομικά πέρα ​​από τον ανθρώπινο έλεγχο και «να ευθυγραμμιστούν με την ανθρώπινη ευημερία» και το φαινόμενο της πεταλούδας - ένα σενάριο «όπου μικρές αλλαγές μπορούν να οδηγήσουν σε σημαντικές, απρόβλεπτες συνέπειες».

«Ως εκ τούτου, ένα σύστημα αδιαφανούς κρατικού ελέγχου σε αλγόριθμους, σετ εκπαίδευσης και μοντέλα με στόχο τη μεγιστοποίηση των συμφερόντων μπορεί να οδηγήσει σε καταστροφικά αποτελέσματα», προειδοποίησε το Συμβούλιο.

Το έγγραφο σημειώνει ότι οι προτεινόμενοι κανονισμοί του μπορεί να σημαίνουν ότι ορισμένα σενάρια πρέπει να αποκλειστούν.

«Μπορεί ποτέ να μην επιτρέψουμε ένα σούπερ συνδεδεμένο Διαδίκτυο από όλα», παραδέχεται το Συμβούλιο. Αλλά καταλήγει στο συμπέρασμα ότι η ανθρωπότητα μπορεί να έχει περισσότερα να κερδίσει από ισχυρούς κανονισμούς.

«Όσοι δημιουργούν εργαλεία τεχνητής νοημοσύνης δεν θα απογοητευτούν εύκολα για υποτιθέμενες ακούσιες συνέπειες – εισάγοντας έτσι ένα εκ των προτέρων «Skin in the Game». Οι άνθρωποι θα διατηρήσουν τις εξουσίες παράκαμψης και εξουσιοδότησης. Οι τακτικοί υποχρεωτικοί έλεγχοι θα πρέπει να επιβάλλουν την επεξήγηση». ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο