OpenAI fordert eine globale Agentur zur Regulierung der Superintelligenz

OpenAI fordert eine globale Agentur zur Regulierung der Superintelligenz

Quellknoten: 2674707

Laut Topmanagern des GPT-4-Herstellers OpenAI sollte eine internationale Agentur für die Inspektion und Prüfung künstlicher allgemeiner Intelligenz verantwortlich sein, um sicherzustellen, dass die Technologie für die Menschheit sicher ist.

CEO Sam Altman und die Mitbegründer Greg Brockman und Ilya Sutskever sagten, es sei „vorstellbar“, dass KI im Laufe des nächsten Jahrzehnts außergewöhnliche Fähigkeiten erlangen werde, die die des Menschen übertreffen.

„Was sowohl die potenziellen Vor- als auch die Nachteile betrifft, wird Superintelligenz leistungsfähiger sein als andere Technologien, mit denen die Menschheit in der Vergangenheit zu kämpfen hatte. Wir können eine wesentlich wohlhabendere Zukunft haben; aber wir müssen das Risiko managen, um dorthin zu gelangen“, so das Trio schrieb am Dienstag.

Die Kosten für den Aufbau einer solch leistungsstarken Technologie würden nur sinken, da mehr Menschen an deren Weiterentwicklung arbeiten, argumentierten sie. Um den Fortschritt zu kontrollieren, sollte die Entwicklung von einer internationalen Organisation wie der Internationalen Atomenergiebehörde (IAEA) überwacht werden.

Die IAEA wurde 1957 zu einer Zeit gegründet, als die Regierungen befürchteten, dass im Kalten Krieg Atomwaffen entwickelt würden. Die Behörde hilft bei der Regulierung der Kernenergie und legt Schutzmaßnahmen fest, um sicherzustellen, dass Kernenergie nicht für militärische Zwecke genutzt wird.

„Wir werden wahrscheinlich irgendwann so etwas wie eine IAEO für Superintelligenzbemühungen brauchen; Jeder Aufwand, der einen bestimmten Schwellenwert für Fähigkeiten (oder Ressourcen wie Rechenleistung) übersteigt, muss einer internationalen Behörde unterliegen, die Systeme inspizieren, Audits verlangen, die Einhaltung von Sicherheitsstandards prüfen, Einschränkungen für Einsatzgrade und Sicherheitsniveaus festlegen kann usw. " Sie sagten.

Eine solche Gruppe wäre für die Verfolgung des Rechen- und Energieverbrauchs verantwortlich, wichtige Ressourcen, die zum Trainieren und Betreiben großer und leistungsstarker Modelle erforderlich sind.

„Wir könnten uns gemeinsam darauf einigen, dass die Wachstumsrate der KI-Fähigkeiten an der Grenze auf eine bestimmte Rate pro Jahr begrenzt ist“, schlugen die Spitzenmanager von OpenAI vor. Unternehmen müssten Inspektionen freiwillig zustimmen, und die Behörde sollte sich auf die „Reduzierung existenzieller Risiken“ konzentrieren und nicht auf regulatorische Fragen, die durch die individuellen Gesetze eines Landes definiert und festgelegt werden.

Letzte Woche brachte Altman vor einem Senat die Idee vor, dass Unternehmen eine Lizenz zum Bau von Modellen mit erweiterten Fähigkeiten über einem bestimmten Schwellenwert erhalten sollten Hörtests. Sein Vorschlag wurde später kritisiert, da er sich unfair auf KI-Systeme auswirken könnte, die von kleineren Unternehmen oder der Open-Source-Community entwickelt wurden, die wahrscheinlich nicht über die Ressourcen verfügen, um die gesetzlichen Anforderungen zu erfüllen.

„Wir halten es für wichtig, Unternehmen und Open-Source-Projekten die Entwicklung von Modellen unterhalb einer erheblichen Fähigkeitsschwelle zu ermöglichen, ohne die Art von Regulierung, die wir hier beschreiben (einschließlich belastender Mechanismen wie Lizenzen oder Audits)“, sagten sie.

Elon Musk war Ende März einer von 1,000 Unterzeichnern eines offenen Briefes, in dem eine sechsmonatige Pause bei der Entwicklung und Ausbildung leistungsfähigerer KI als GPT4 aufgrund potenzieller Risiken für die Menschheit gefordert wurde, etwas, das Altman sagte bestätigt Mitte April war es soweit.

„Leistungsfähige KI-Systeme sollten erst dann entwickelt werden, wenn wir davon überzeugt sind, dass ihre Auswirkungen positiv und ihre Risiken beherrschbar sind“, heißt es in dem Brief.

Sundar Pichai, CEO von Alphabet und Google, schrieb am Wochenende einen Artikel in der Financial Times: sagen: „Ich glaube immer noch, dass KI zu wichtig ist, um sie nicht zu regulieren, und zu wichtig, um sie nicht gut zu regulieren.“ ®

Zeitstempel:

Mehr von Das Register