Η τεχνητή νοημοσύνη είναι υποχρέωση

Η τεχνητή νοημοσύνη είναι υποχρέωση

Κόμβος πηγής: 3029233

Σχόλιο Η τεχνητή νοημοσύνη, που σημαίνει μεγάλα θεμελιώδη μοντέλα που προβλέπουν κείμενο και μπορούν να κατηγοριοποιήσουν εικόνες και ομιλία, μοιάζει περισσότερο με υποχρέωση παρά με περιουσιακό στοιχείο.

Μέχρι στιγμής, η ζημιά σε δολάρια ήταν μικρή. Το 2019, ένας οδηγός Tesla που χειριζόταν το όχημά του με τη βοήθεια του λογισμικού Autopilot της αυτοκινητοβιομηχανίας άνοιξε το κόκκινο φανάρι και χτύπησε ένα άλλο όχημα. Οι επιβαίνοντες πέθαναν και ο οδηγός της Tesla την περασμένη εβδομάδα ήταν διέταξε να πληρώσει 23,000 $ ως αποζημίωση.

Το Tesla εκδόθηκε περίπου την ίδια εποχή μια ανάκληση δύο εκατομμυρίων οχημάτων για να αναθεωρήσει το λογισμικό του Αυτόματου πιλότου ως απάντηση σε έρευνα της Εθνικής Υπηρεσίας Ασφάλειας Οδικής Κυκλοφορίας των ΗΠΑ (NHTSA) που διαπίστωσε ότι δεν υπήρχαν οι έλεγχοι ασφαλείας του Αυτόματου πιλότου.

Είκοσι τρεις χιλιάδες δολάρια δεν είναι πολλά για δύο ζωές, αλλά οι εμπλεκόμενες οικογένειες διεκδικούν αστικές αξιώσεις κατά του οδηγού και κατά της Tesla, οπότε το κόστος μπορεί να αυξηθεί. Και λέγεται ότι υπάρχουν τουλάχιστον μια ντουζίνα μηνύσεις που περιλαμβάνει Autopilot στις ΗΠΑ.

Εν τω μεταξύ, στον κλάδο της υγείας, η UnitedHealthcare μηνύεται επειδή το μοντέλο nH Predict AI που απέκτησε μέσω της αγοράς του Navihealth το 2020, φέρεται να αρνείται την απαραίτητη μετεγχειρητική φροντίδα σε ασφαλισμένους ηλικιωμένους.

Απαιτούνται περιορισμοί

Οι εταιρείες που πωλούν μοντέλα και υπηρεσίες τεχνητής νοημοσύνης κατανοούν ξεκάθαρα ότι υπάρχει πρόβλημα. Αναφέρονται σε «προστατευτικά κιγκλιδώματα» που τοποθετούνται γύρω από θεμελιώδη μοντέλα για να τους βοηθήσουν να παραμείνουν στη λωρίδα τους – ακόμα κι αν αυτά μην δουλεύεις πολύ καλά. Προφυλάξεις αυτού του είδους θα ήταν περιττές εάν αυτά τα μοντέλα δεν περιείχαν υλικό σεξουαλικής κακοποίησης παιδιών και μια πληθώρα άλλου τοξικού περιεχομένου.

Είναι σαν να διαβάζουν οι προγραμματιστές AI του συγγραφέα Alex Blechman viral ανάρτηση σχετικά με τις εταιρείες τεχνολογίας που ερμηνεύουν την προειδοποιητική ιστορία "Don't Create the Torment Nexus" ως οδικό χάρτη προϊόντων και είπαν: "Μου φαίνεται καλό".

Φυσικά, υπάρχουν παλαιότερες λογοτεχνικές αναφορές που ταιριάζουν στην τεχνητή νοημοσύνη, όπως το Frankenstein της Mary Shelley ή το Pandora's Box - μια ιδιαίτερα καλή εφαρμογή δεδομένου ότι τα μοντέλα AI αναφέρονται συχνά ως μαύρα κουτιά λόγω της έλλειψης διαφάνειας σχετικά με το εκπαιδευτικό υλικό.

Μέχρι στιγμής, η ανεξιχνίαση των εμπορικών μοντέλων με επιβλαβές περιεχόμενο δεν έχει επιβαρύνει πάρα πολύ τις επιχειρήσεις. Υπάρχει ένα πρόσφατο ισχυρισμός από τον Chris Bakke, ιδρυτή και διευθύνοντα σύμβουλο της Laskie (που αγοράστηκε φέτος από μια εταιρεία που αυτοαποκαλείται X), ότι ένα GM chatbot που χρησιμοποιείται από αντιπροσωπεία αυτοκινήτων στο Watsonville, στην Καλιφόρνια, συζητήθηκε να συμφωνήσει να πουλήσει ένα Chevy Tahoe του 2024 για $ 1 με λίγη άμεση μηχανική. Αλλά η αντιπροσωπεία δεν είναι πιθανό να τηρήσει αυτή τη δέσμευση.

Ωστόσο, ο κίνδυνος να βασιστείς σε μοντέλα AI είναι αρκετός Google, Microsoft, να Ανθρωπικός προσφέρθηκαν να αποζημιώσουν τους πελάτες από αξιώσεις πνευματικών δικαιωμάτων (οι οποίες είναι πολυάριθμες και σε μεγάλο βαθμό ανεπίλυτες). Αυτό δεν είναι κάτι που κάνετε εκτός αν υπάρχει πιθανότητα ευθύνης.

Ρυθμιστικές Αρχές

Οι αρχές εξακολουθούν να προσπαθούν να καταλάβουν πώς θα πρέπει να αξιολογηθεί η ευθύνη της τεχνητής νοημοσύνης. Σκεφτείτε πώς η Ευρωπαϊκή Επιτροπή πλαισίωσε το θέμα καθώς εργάζεται για τη διαμόρφωση ενός λειτουργικού νομικού πλαισίου για την τεχνητή νοημοσύνη:

«Οι ισχύοντες κανόνες ευθύνης, ιδίως οι εθνικοί κανόνες που βασίζονται σε πταίσμα, δεν είναι προσαρμοσμένοι για να χειρίζονται αξιώσεις αποζημίωσης για ζημιές που προκαλούνται από προϊόντα/υπηρεσίες με δυνατότητα τεχνητής νοημοσύνης», η Επιτροπή είπε [PDF] πέρυσι. «Σύμφωνα με αυτούς τους κανόνες, τα θύματα πρέπει να αποδείξουν μια παράνομη ενέργεια/παράλειψη ενός ατόμου που προκάλεσε τη ζημία. Τα ειδικά χαρακτηριστικά της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της αυτονομίας και της αδιαφάνειας (το λεγόμενο φαινόμενο του «μαύρου κουτιού»), καθιστούν δύσκολη ή απαγορευτικά δαπανηρή την αναγνώριση του υπόχρεου προσώπου και την απόδειξη των απαιτήσεων για μια επιτυχημένη αξίωση αστικής ευθύνης».

Και οι αμερικανοί νομοθέτες έχουν προτείνεται ένα δικομματικό πλαίσιο τεχνητής νοημοσύνης για να «διασφαλίσει ότι οι εταιρείες τεχνητής νοημοσύνης μπορούν να θεωρηθούν υπεύθυνες μέσω της επιβολής του εποπτικού οργάνου και των ιδιωτικών δικαιωμάτων δράσης όταν τα μοντέλα και τα συστήματά τους παραβιάζουν το απόρρητο, παραβιάζουν τα πολιτικά δικαιώματα ή με άλλο τρόπο προκαλούν γνωστές βλάβες».

Μην ενθουσιάζεστε πολύ που βλέπετε στελέχη εταιρειών τεχνητής νοημοσύνης πίσω από τα κάγκελα: Η συμμετοχή των ηγετών του κλάδου της τεχνητής νοημοσύνης σε αυτή τη διαδικασία υποδηλώνει ότι τυχόν κανόνες που προκύπτουν θα είναι εξίσου αποτελεσματικοί με άλλα ρυθμιστικά πλαίσια που έχουν παραβιαστεί από τους λομπίστες.

Αλλά ο ενθουσιασμός είναι μέρος του προβλήματος: Υπάρχει τόσο μεγάλη διαφημιστική εκστρατεία για τους στοχαστικούς παπαγάλους, όπως έχουν ονομαστεί τα μοντέλα AI.

Τα μοντέλα τεχνητής νοημοσύνης έχουν πραγματική αξία σε ορισμένα πλαίσια, όπως σημειώνεται από την εταιρεία ασφαλείας Socket, η οποία έχει χρησιμοποιήσει το ChatGPT για σημαία βοήθειας ευπάθειες λογισμικού. Έχουν κάνει θαύματα για την αναγνώριση ομιλίας, τη μετάφραση και την αναγνώριση εικόνας, εις βάρος των μεταγραφέων και των παζλ CAPTCHA. Υπενθύμισαν στους βετεράνους του κλάδου πόσο διασκεδαστικό ήταν να παίζεις μαζί τους Ελίζα, ένα πρώιμο chatbot. Μοιάζουν σαν να έχουν πραγματική χρησιμότητα σε εργασίες υποστήριξης αποφάσεων, υπό την προϋπόθεση ότι υπάρχει ένας άνθρωπος στο βρόχο. Και έχουν πάρει πολύπλοκα ξόρκια της γραμμής εντολών, με τις διάφορες σημαίες και τις παραμέτρους τους, και τα έχουν μετατρέψει σε εξίσου πολύπλοκα μηνύματα κειμένου που μπορούν να συνεχιστούν για παραγράφους.

Αλλά ο αυτοματισμός που ενεργοποιείται από την τεχνητή νοημοσύνη έχει κόστος. Σε μια πρόσφατη άρθρο για το εμπορικό περιοδικό επιστημονικής φαντασίας Locus, ο συγγραφέας και ακτιβιστής Cory Doctorow υποστήριξε: «Οι εταιρείες τεχνητής νοημοσύνης στοιχηματίζουν σιωπηρά ότι οι πελάτες τους θα αγοράσουν τεχνητή νοημοσύνη για άκρως συνεπείς αυτοματισμούς, θα απολύσουν εργαζόμενους και θα προκαλέσουν σωματική, ψυχική και οικονομική βλάβη στους πελάτες τους ως αποτέλεσμα , αποφεύγοντας με κάποιο τρόπο την ευθύνη για αυτές τις βλάβες».

Ο Doctorow είναι δύσπιστος ότι υπάρχει μια σημαντική αγορά για υπηρεσίες τεχνητής νοημοσύνης σε επιχειρήσεις υψηλής αξίας, λόγω των κινδύνων και πιστεύει ότι βρισκόμαστε σε Φούσκα AI. Επισημαίνει την GM Cruise ως παράδειγμα, σημειώνοντας ότι το επιχειρηματικό μοντέλο της εταιρείας αυτόνομης οδήγησης – σε κενό λόγω τραυματισμού πεζού και ανάκλησης – ισοδυναμεί με την αντικατάσταση κάθε χαμηλού μισθού οδηγού με 1.5 πιο δαπανηρούς απομακρυσμένους επόπτες, χωρίς να αποκλείεται η πιθανότητα ατυχημάτων και συναφών αγωγών.

Υπερφόρτωση

Τουλάχιστον υπάρχει κάποια δυνατότητα για επιχειρήσεις χαμηλής αξίας που σχετίζονται με την τεχνητή νοημοσύνη. Αυτά περιλαμβάνουν μηνιαία πληρωμή για πρόσβαση σε ένα API για ανακριβή συνομιλία, δημιουργία αλγοριθμικής εικόνας που συνεπιλέγει τα στυλ καλλιτεχνών χωρίς άδεια ή δημιουργώντας εκατοντάδες ιστοσελίδων ψεύτικων ειδήσεων (ή βιβλία) με τέτοιο τρόπο ώστε "πλημμυρίζει τη ζώνη” με παραπληροφόρηση.

Φαίνεται απίθανο αυτό του Arena Group ισχυρισμός Το ότι η πλατφόρμα AI της μπορεί να μειώσει τον χρόνο που απαιτείται για τη δημιουργία άρθρων για εκδόσεις όπως το Sports Illustrated κατά 80-90%, θα βελτιώσει την ικανοποίηση των αναγνωστών, την αφοσίωση στην επωνυμία ή την ποιότητα του περιεχομένου. Ίσως, όμως, η δημιουργία περισσότερων άρθρων από ό,τι είναι ανθρωπίνως δυνατό στους εκατοντάδες τίτλους της εταιρείας θα οδηγήσει σε περισσότερες προβολές σελίδων από bots και περισσότερα έσοδα μέσω προγραμματισμού από διαφημίσεις που είναι πολύ αφελείς αγοραστές διαφημίσεων.

Μέρος του προβλήματος είναι ότι οι κύριοι προωθητές τεχνητής νοημοσύνης – Amazon, Google, Nvidia και Microsoft – λειτουργούν πλατφόρμες cloud ή πωλούν υλικό GPU. Είναι οι πωλητές του χρυσού της τεχνητής νοημοσύνης, οι οποίοι θέλουν απλώς να πουλήσουν τις υπηρεσίες cloud ή το κιτ τους. Ήταν όλοι εν ενεργεία για το blockchain express και την υπεροχή των κρυπτονομισμάτων μέχρι να εξαφανιστεί αυτή η αυταπάτη.

Είναι ακόμη πιο ενθουσιώδεις για να βοηθήσουν τις εταιρείες να εκτελούν φόρτους εργασίας AI, χρήσιμους ή άλλους. Απλώς κάνουν σύννεφο, ελπίζοντας να οδηγήσουν τις επιχειρήσεις στις λειτουργίες ενοικίασης επεξεργαστών. Ομοίως, οι νεοσύστατες επιχειρήσεις μηχανικής μάθησης χωρίς υποδομή ελπίζουν ότι η έντονη συζήτηση για τεχνολογία μετασχηματισμού θα διογκώσει την αποτίμηση της εταιρείας τους για να ανταμείψει τους πρώτους επενδυτές.

Η τρέλα της τεχνητής νοημοσύνης μπορεί επίσης να αποδοθεί εν μέρει στη διαρκή προσπάθεια της βιομηχανίας τεχνολογίας να απαντήσει «Τι ακολουθεί;» σε μια περίοδο παρατεταμένης στάσης. Apple, Google, Amazon, Meta, Microsoft, να Nvidia Όλοι έχουν κάνει ό,τι καλύτερο μπορούν για να αποτρέψουν ουσιαστικό ανταγωνισμό και από την αρχή της εποχής του cloud και των κινητών στα μέσα της δεκαετίας του 2000, τα κατάφεραν αρκετά καλά. Όχι ότι η αντιανταγωνιστική συμπεριφορά είναι κάτι καινούργιο – θυμηθείτε τη βιομηχανία του 2010 επίλυση με το Υπουργείο Δικαιοσύνης των ΗΠΑ σχετικά με τις συμφωνίες μεταξύ της Adobe, της Google, της Intel, της Intuit και της Pixar για την αποφυγή λαθροθηρίας ταλέντων μεταξύ τους.

Η Microsoft έκανε μεγάλο μέρος της ενσωμάτωσης της τεχνητής νοημοσύνης με το Bing, επισκιασμένο εδώ και καιρό από την Αναζήτηση Google, υποστηρίζοντας ότι είναι "επανεφεύρεση της αναζήτησης.» Αλλά δεν έχουν αλλάξει πολλά από τότε – Bing σύμφωνα με πληροφορίες απέτυχε να πάρει κανένα μερίδιο αγοράς από την Google, σε μια εποχή που υπάρχει ευρέως διαδεδομένο το συναίσθημα ότι η Αναζήτηση Google – επίσης τροφοδοτούμενη τώρα με τεχνητή νοημοσύνη – έχει επιδεινωθεί.

Φέρτε το 2024

Για να μάθουμε τι θα ακολουθήσει, θα πρέπει να περιμένουμε το Υπουργείο Δικαιοσύνης και τις ρυθμιστικές αρχές αλλού στον κόσμο να επιβάλουν αλλαγές αντιμονοπωλιακής νομοθεσίας επιβολή και αγωγές. Επειδή ενώ η Google έχει κλειδώσει τη διανομή αναζήτησης – μέσω συμφωνιών με την Apple και άλλους – και την ψηφιακή διαφήμιση – μέσω της συμφωνίας της με τη Meta (εκκαθαρίστηκε στις ΗΠΑ, ακόμη υπό διερεύνηση στην Ευρώπη και το ΗΒ) και άλλες δραστηριότητες που κέντρισε το ενδιαφέρον του Υπουργείου Δικαιοσύνης – ούτε η επιχείρηση αναζήτησης ούτε η επιχείρηση διαφημίσεων φαίνονται επιδεκτικά σε νέους αμφισβητίες, ανεξάρτητα από το πόση σάλτσα τεχνητής νοημοσύνης προστίθεται.

Η τεχνητή νοημοσύνη είναι μια υποχρέωση όχι μόνο από την οικονομική άποψη αλλά και από την ηθική. Υπόσχεται εξοικονόμηση μισθών – παρά όντας εξαιρετικά ακριβό από την άποψη του Προπόνηση και περιβαλλοντική επίπτωση – ενώ ενθαρρύνει την αδιαφορία για την ανθρώπινη εργασία, την πνευματική ιδιοκτησία, την επιβλαβή παραγωγή και την ακρίβεια των πληροφοριών. Η τεχνητή νοημοσύνη καλεί τις εταιρείες να αφαιρέσουν τους ανθρώπους από την εξίσωση όταν συχνά προσθέτουν αξία που δεν είναι προφανής από έναν ισολογισμό.

Υπάρχει χώρος για την τεχνητή νοημοσύνη να είναι πραγματικά χρήσιμη, αλλά πρέπει να αναπτυχθεί για να βοηθήσει τους ανθρώπους αντί να τους ξεφορτωθεί. ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο