Künstliche Intelligenz ist eine Belastung

Künstliche Intelligenz ist eine Belastung

Quellknoten: 3029233

Kommentar Künstliche Intelligenz, also große grundlegende Modelle, die Text vorhersagen und Bilder und Sprache kategorisieren können, scheint eher eine Belastung als ein Vorteil zu sein.

Bisher war der Dollarschaden gering. Im Jahr 2019 überfuhr ein Tesla-Fahrer, der sein Fahrzeug mithilfe der Autopilot-Software des Autoherstellers steuerte, eine rote Ampel und prallte gegen ein anderes Fahrzeug. Die Insassen starben und der Tesla-Autofahrer starb letzte Woche bestellt 23,000 US-Dollar Entschädigung zu zahlen.

Tesla etwa zur gleichen Zeit herausgegeben ein Rückruf als Reaktion auf eine Untersuchung der US-amerikanischen National Highway Traffic Safety Administration (NHTSA), bei der festgestellt wurde, dass die Sicherheitskontrollen des Autopiloten mangelhaft waren.

XNUMX Dollar sind nicht viel für zwei Leben, aber die beteiligten Familien verfolgen zivilrechtliche Ansprüche gegen den Fahrer und gegen Tesla, sodass die Kosten steigen könnten. Und es soll sie zumindest geben ein Dutzend Klagen mit Autopilot in den USA.

Mittlerweile ist UnitedHealthcare in der Gesundheitsbranche tätig wird verklagt weil das nH Predict AI Model, das es durch den Kauf von Navihealth im Jahr 2020 erworben hat, versicherten Senioren angeblich die notwendige postakute Versorgung verweigert.

Einschränkungen erforderlich

Unternehmen, die KI-Modelle und -Dienste verkaufen, sind sich offensichtlich darüber im Klaren, dass es ein Problem gibt. Sie beziehen sich auf „Leitplanken“, die um grundlegende Modelle herum errichtet wurden, um ihnen zu helfen, auf ihrer Spur zu bleiben – selbst wenn diese vorhanden sind arbeite nicht sehr gut. Derartige Vorsichtsmaßnahmen wären unnötig, wenn diese Modelle nicht enthalten wären Material für sexuellen Missbrauch von Kindern und eine Vielzahl anderer giftiger Inhalte.

Es ist, als ob KI-Entwickler die Bücher des Schriftstellers Alex Blechman lesen würden viraler Beitrag über Technologieunternehmen, die das warnende Beispiel „Don’t Create the Torment Nexus“ als Produkt-Roadmap interpretierten und sagten: „Sieht für mich gut aus.“

Natürlich gibt es auch ältere literarische Referenzen, die zur KI passen, etwa „Frankenstein“ von Mary Shelley oder „Die Büchse der Pandora“ – was besonders gut passt, wenn man bedenkt, dass KI-Modelle aufgrund der mangelnden Transparenz des Trainingsmaterials häufig als „Black Boxes“ bezeichnet werden.

Bisher hat die Undurchschaubarkeit der mit schädlichen Inhalten gespickten Geschäftsmodelle den Unternehmen keinen allzu großen Schaden zugefügt. Es gibt eine aktuelle Anspruch von Chris Bakke, Gründer und CEO von Laskie (das dieses Jahr von einem Unternehmen namens für $ 1 mit ein bisschen prompter Technik. Aber das Autohaus wird dieser Verpflichtung wahrscheinlich nicht nachkommen.

Dennoch reicht das Risiko aus, sich auf KI-Modelle zu verlassen Google, Microsoft und Anthropisch haben angeboten, Kunden von Urheberrechtsansprüchen (von denen es zahlreiche und größtenteils ungelöste Ansprüche gibt) freizustellen. Das tun Sie nicht, es sei denn, es besteht die Möglichkeit einer Haftung.

Rechtliches

Die Behörden versuchen immer noch herauszufinden, wie die KI-Haftung beurteilt werden soll. Überlegen Sie, wie die Europäische Kommission das Thema formuliert hat, während sie an der Formulierung eines praktikablen Rechtsrahmens für künstliche Intelligenz arbeitet:

„Die aktuellen Haftungsvorschriften, insbesondere die verschuldensbasierten nationalen Vorschriften, sind nicht für die Behandlung von Schadensersatzansprüchen für Schäden geeignet, die durch KI-fähige Produkte/Dienstleistungen verursacht wurden“, so die Kommission sagte [PDF] letztes Jahr. „Nach solchen Regeln müssen Opfer eine unrechtmäßige Handlung/Unterlassung einer Person nachweisen, die den Schaden verursacht hat. Die spezifischen Eigenschaften von KI, einschließlich Autonomie und Undurchsichtigkeit (der sogenannte „Black-Box-Effekt“), machen es schwierig oder unerschwinglich teuer, die haftende Person zu identifizieren und die Voraussetzungen für einen erfolgreichen Haftungsanspruch nachzuweisen.“

Und die US-Gesetzgeber haben es getan vorgeschlage ein überparteiliches KI-Rahmenwerk, um „sicherzustellen, dass KI-Unternehmen durch die Durchsetzung von Aufsichtsbehörden und privaten Klagerechten haftbar gemacht werden können, wenn ihre Modelle und Systeme die Privatsphäre verletzen, Bürgerrechte verletzen oder auf andere Weise erkennbare Schäden verursachen.“

Seien Sie nicht zu aufgeregt, wenn Sie die Führungskräfte von KI-Firmen hinter Gittern sehen: Die Beteiligung von führenden KI-Branchenvertretern an diesem Prozess deutet darauf hin, dass alle neuen Regeln ungefähr genauso wirksam sein werden wie andere Regulierungsrahmen, die von Lobbyisten entstellt wurden.

Aber die Aufregung ist Teil des Problems: Es gibt einfach so viel Hype um stochastische Papageien, wie KI-Modelle genannt werden.

KI-Modelle haben in manchen Zusammenhängen einen echten Wert, wie die Sicherheitsfirma Socket feststellte, die ChatGPT dazu verwendet hat Hilfe-Flagge Software-Schwachstellen. Sie haben Wunder bei der Spracherkennung, Übersetzung und Bilderkennung bewirkt, zum Nachteil von Transkriptoren und CAPTCHA-Rätseln. Sie haben Branchenveteranen daran erinnert, wie viel Spaß es gemacht hat, damit zu spielen Eliza, ein früher Chatbot. Sie scheinen bei Aufgaben zur Entscheidungsunterstützung von echtem Nutzen zu sein, vorausgesetzt, dass ein Mensch auf dem Laufenden ist. Und sie haben komplexe Befehlszeilenbeschwörungsformeln mit ihren verschiedenen Flags und Parametern in ebenso komplexe Textaufforderungen umgewandelt, die sich über Absätze erstrecken können.

Doch die durch KI ermöglichte Automatisierung hat ihren Preis. In einem aktuellen Artikel Für das Science-Fiction-Fachmagazin Locus argumentierte der Autor und Aktivist Cory Doctorow: „KI-Unternehmen wetten implizit darauf, dass ihre Kunden KI für eine äußerst folgenreiche Automatisierung kaufen, Arbeiter entlassen und dadurch ihren eigenen Kunden physischen, psychischen und wirtschaftlichen Schaden zufügen.“ , irgendwie der Haftung für diese Schäden entgehen.“

Doctorow ist aufgrund der Risiken skeptisch, dass es einen sinnvollen Markt für KI-Dienste in hochwertigen Unternehmen gibt, und glaubt, dass wir uns in einer schwierigen Situation befinden KI-Blase. Als Beispiel nennt er GM Cruise und weist darauf hin, dass das Geschäftsmodell des Herstellers selbstfahrender Autos – in der Schwebe B. aufgrund einer Fußgängerverletzung und eines Rückrufs – läuft darauf hinaus, jeden Niedriglohnfahrer durch 1.5 kostspieligere Remote-Supervisoren zu ersetzen, ohne die Möglichkeit von Unfällen und damit verbundenen Klagen auszuschließen.

Überlastung

Zumindest besteht im Zusammenhang mit KI ein gewisses Potenzial für Geschäfte mit geringem Wert. Dazu gehören monatliche Zahlungen für den Zugriff auf eine API für ungenaue Chats, algorithmische Bildgenerierung, die den Stil von Künstlern ohne Erlaubnis kooptiert, oder Hunderte generieren von Fake-News-Seiten (bzw Bücher) in einer Weise dass "überschwemmt die Zone” mit Fehlinformationen.

Es scheint unwahrscheinlich, dass die Arena Group Anspruch Dass seine KI-Plattform den Zeitaufwand für die Erstellung von Artikeln für Publikationen wie Sports Illustrated um 80–90 Prozent reduzieren kann, wird die Leserzufriedenheit, Markentreue oder Inhaltsqualität verbessern. Aber vielleicht führt die Generierung von mehr Artikeln als menschenmöglich in den Hunderten von Titeln des Unternehmens zu mehr Seitenaufrufen durch Bots und mehr Einnahmen aus programmatischer Werbung von Anzeigenkäufern, die zu naiv sind, um sich durchzusetzen.

Ein Teil des Problems besteht darin, dass die wichtigsten KI-Förderer – Amazon, Google, Nvidia und Microsoft – Cloud-Plattformen betreiben oder GPU-Hardware verkaufen. Sie sind die Spitzhacken-Verkäufer des KI-Goldrauschs, die einfach nur ihre Cloud-Dienste oder ihr Zahlenkalkulations-Kit verkaufen wollen. Sie waren alle für den Blockchain-Express und die Vorherrschaft der Kryptowährungen, bis diese Illusion nachließ.

Sie sind sogar noch enthusiastischer, wenn es darum geht, Unternehmen bei der Ausführung von KI-Workloads zu unterstützen, ob nützlich oder nicht. Sie betreiben lediglich Cloud-Seeding und hoffen, das Geschäft mit ihren Mietprozessorbetrieben anzukurbeln. In ähnlicher Weise hoffen Startups im Bereich maschinelles Lernen ohne Infrastruktur, dass die gehauchte Diskussion über transformative Technologie ihre Unternehmensbewertung in die Höhe treibt, um frühe Investoren zu belohnen.

Die KI-Begeisterung kann zum Teil auch auf die ständige Bemühung der Technologiebranche zurückgeführt werden, die Frage „Was kommt als nächstes?“ zu beantworten. während einer Zeit längerer Stasis. Apple, Google, Amazon, Meta, Microsoft und Nvidia Sie alle haben ihr Bestes getan, um ernsthaften Wettbewerb zu verhindern, und seit Beginn des Cloud- und Mobilzeitalters Mitte der 2000er Jahre ist ihnen dies ziemlich gut gelungen. Nicht, dass wettbewerbswidriges Verhalten etwas Neues wäre – erinnern Sie sich an die Branche von 2010 Siedlung mit dem US-Justizministerium über die Vereinbarungen zwischen Adobe, Google, Intel, Intuit und Pixar, um die gegenseitige Abwerbung von Talenten zu verhindern.

Microsoft hat einen Großteil seiner KI-Integration mit Bing vorgenommen, das lange Zeit im Schatten der Google-Suche stand, und behauptet, es sei „Suche neu erfinden.“ Aber seitdem hat sich nicht viel geändert – Bing Berichten zufolge hat es nicht geschafft, Google Marktanteile abzunehmen, und das zu einer Zeit, in der die Meinung weit verbreitet ist, dass die Google-Suche – die jetzt ebenfalls mit KI ausgestattet ist – immer schlechter wird.

Komm schon, 2024

Um herauszufinden, was als nächstes kommt, müssen wir darauf warten, dass das Justizministerium und die Regulierungsbehörden anderswo auf der Welt Änderungen durchsetzen Kartellrecht Durchsetzung und Klagen. Denn während Google die Suchverteilung – durch Verträge mit Apple und anderen – und die digitale Werbung – durch seinen Deal mit Meta (in den USA freigegeben, immer noch untersuchten in Europa und im Vereinigten Königreich) und andere Aktivitäten, die pikiert das Interesse des Justizministeriums – weder das Suchgeschäft noch das Anzeigengeschäft scheinen für neue Herausforderer zugänglich zu sein, egal wie viel KI-Soße hinzugefügt wird.

KI ist nicht nur im finanziellen, sondern auch im ethischen Sinne eine Belastung. Es verspricht Lohneinsparungen – trotz allem extrem sein teuer im Hinblick auf Training und Umweltbelastung – und gleichzeitig die Gleichgültigkeit gegenüber menschlicher Arbeit, geistigem Eigentum, schädlicher Produktion und Informationsgenauigkeit fördern. KI fordert Unternehmen dazu auf, Menschen aus der Gleichung herauszunehmen, wenn diese oft einen Mehrwert schaffen, der aus der Bilanz nicht ersichtlich ist.

Es gibt Raum dafür, dass KI wirklich nützlich sein kann, aber sie muss eingesetzt werden, um Menschen zu helfen, anstatt sie loszuwerden. ®

Zeitstempel:

Mehr von Das Register