Experten warnen vor dem Aussterben der KI, wenn nicht jetzt gehandelt wird

Experten warnen vor dem Aussterben der KI, wenn nicht jetzt gehandelt wird

Quellknoten: 2688105

Es gibt einen weiteren verhängnisvollen offenen Brief über KI, der die Runde macht. Dieses Mal haben sich zahlreiche Technologieführer, ML-Koryphäen und sogar einige Prominente angemeldet, um die Welt dazu zu drängen, die angeblichen Bedrohungen durch künstliche Intelligenz ernster zu nehmen. 

Eine treffendere Aussage ist die Botschaft des Center for AI Safety (CAIS), die von Personen wie dem KI-Pionier unterzeichnet wurde Geoffrey Hinton, OpenAI-CEO Sam Altman, Verschlüsselungsguru Martin Hellman, Microsoft-CTO Kevin Scott und andere sind ein einzelner Aussagesatz Vorhersage der Apokalypse, wenn sie unbeachtet bleibt:

„Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“ 

Warum so kurz? Das Ziel bestand darin, „die breite und wachsende Koalition von KI-Wissenschaftlern, Technologieführern und Professoren zu demonstrieren, die über die Risiken des KI-Aussterbens besorgt sind.“ Wir brauchen eine breite Anerkennung der Risiken, damit wir sinnvolle politische Diskussionen führen können“, sagte CAIS-Direktor Dan Hendrycks Das Register.

CAIS erwähnt in seinem Dokument keine künstliche allgemeine Intelligenz (AGI). Liste der KI-Risiken, wir stellen fest. Und Modelle der aktuellen Generation wie ChatGPT stellen keine apokalyptische Bedrohung für die Menschheit dar, sagte uns Hendrycks. Die Warnung dieser Woche bezieht sich auf das, was als nächstes kommen könnte.

„Die Arten katastrophaler Bedrohungen, auf die sich diese Aussage bezieht, stehen im Zusammenhang mit zukünftigen fortschrittlichen KI-Systemen“, meinte Hendrycks. Er fügte hinzu, dass die notwendigen Fortschritte, um das Ausmaß einer „apokalyptischen Bedrohung“ zu erreichen, möglicherweise nur zwei bis zehn Jahre und nicht mehrere Jahrzehnte entfernt seien. „Wir müssen uns jetzt vorbereiten. Allerdings müssen KI-Systeme, die katastrophale Folgen haben könnten, keine AGIs sein“, sagte er. 

Denn der Mensch ist sowieso vollkommen friedlich

Ein solcher Bedrohung ist die Bewaffnung oder die Vorstellung, dass jemand eine wohlwollende KI so umfunktionieren könnte, dass sie äußerst destruktiv ist, etwa durch den Einsatz eines Medikamentenentdeckungs-Bots zur Entwicklung chemischer oder biologischer Waffen oder durch den Einsatz von Verstärkungslernen für maschinengestützte Kämpfe. Allerdings sind Menschen bereits durchaus in der Lage, solche Waffen herzustellen, mit denen sie eine Person, ein Viertel, eine Stadt oder ein Land vernichten können.

KI könnte auch darauf trainiert werden, ihre Ziele ohne Rücksicht auf individuelle oder gesellschaftliche Werte zu verfolgen, werden wir gewarnt. Es könnte Menschen „schwächen“, die am Ende Fertigkeiten und Fertigkeiten an automatisierte Maschinen abgeben, was zu einem Machtungleichgewicht zwischen den Kontrolleuren der KI und denen, die durch die Automatisierung ersetzt werden, führen oder zur absichtlichen oder absichtlichen Verbreitung von Desinformation genutzt werden könnte Andernfalls.

Auch hier muss keine der beteiligten KIs allgemeingültig sein, und es ist nicht allzu weit hergeholt, das Potenzial der KI der aktuellen Generation zu erkennen, sich so zu entwickeln, dass sie die Art von Risiken birgt, über die sich CAIS Sorgen macht. Möglicherweise haben Sie Ihre eigene Meinung darüber, wie zerstörerisch oder leistungsfähig die Software wirklich sein könnte oder sein wird und was sie tatsächlich erreichen könnte.

Es sei von entscheidender Bedeutung, so die Argumentation von CAIS, die bereits spürbaren negativen Auswirkungen der KI zu untersuchen und anzugehen und diese bestehenden Auswirkungen in Voraussicht umzuwandeln. „Während wir uns mit unmittelbaren KI-Risiken auseinandersetzen … müssen sich die KI-Industrie und Regierungen auf der ganzen Welt auch ernsthaft der Gefahr stellen, dass zukünftige KI eine Bedrohung für die menschliche Existenz darstellen könnten“, Hendrycks sagte in einer Erklärung.

„Die Welt hat erfolgreich zusammengearbeitet, um die mit einem Atomkrieg verbundenen Risiken zu mindern. Es sind die gleichen Anstrengungen erforderlich, um den Gefahren zu begegnen, die von künftigen KI-Systemen ausgehen“, forderte Hendrycks und unterstützte ihn dabei mit einer Liste von Unternehmens-, Hochschul- und Vordenkern. 

Musk ist nicht an Bord

Weitere Unterzeichner sind der leitende Google DeepMind-Wissenschaftler Ian Goodfellow, die Philosophen David Chalmers und Daniel Dennett, der Autor und Blogger Sam Harris und der Ex des Musikers/Elon Musk, Grimes. Apropos Mann selbst: Musks Unterschrift fehlt. 

Der Twitter-CEO wurde unter denen, die eine unterzeichnet haben offenen Brief veröffentlicht vom Future of Life Institute im vergangenen März, in dem a sechs Monate Pause zum Training von KI-Systemen, die „leistungsstärker als GPT-4“ sind. Es überrascht nicht, dass die Unterschrift von OpenAI-CEO Altman fehlte zur Verbesserung der Gesundheitsgerechtigkeit bestimmten Brief, angeblich weil darin sein Unternehmen direkt angesprochen wurde. 

OpenAI hat inzwischen herausgegeben seine eigenen Warnungen über die Bedrohungen durch fortschrittliche KI und forderte die Einrichtung einer globalen Aufsichtsbehörde ähnlich der Internationalen Atomenergiebehörde, um den Einsatz von KI zu regulieren.

Dieser Warn- und Regulierungsaufruf kam noch am selben Tag, Altman, in einem Fall von historisch schlechtem Timing bedroht OpenAI und damit ChatGPT aus der EU über den Block zu ziehen KI-Gesetz. Die Regeln, die er befürwortet, sind eine Sache, aber Altman sagte gegenüber Brüssel, dass ihre Vorstellung einer KI-Beschränkung eine regulatorische Brücke sei, die zu weit gehe, vielen Dank. 

EU-Parlamentarier reagiert indem sie sagten, sie würden sich nicht von OpenAI diktieren lassen und dass, wenn das Unternehmen grundlegende Governance- und Transparenzregeln nicht einhalten könne, „ihre Systeme nicht für den europäischen Markt geeignet seien“, behauptete der niederländische Europaabgeordnete Kim van Sparrentak. 

Wir haben OpenAI um Klarstellung zu Altmans Position(en) gebeten und werden diese Geschichte aktualisieren, wenn wir etwas hören. ®

Zeitstempel:

Mehr von Das Register