US-Regulierungsbehörde untersucht ChatGPT von OpenAI wegen der Verbreitung von Lügen

US-Aufsichtsbehörde untersucht ChatGPT von OpenAI wegen der Verbreitung von Lügen

Quellknoten: 2764806

Die US-amerikanische Federal Trade Commission (FTC) hat eine Untersuchung gegen OpenAI wegen möglicher Verstöße gegen Verbraucherschutzgesetze im Zusammenhang mit ihrem KI-Chatbot ChatGPT eingeleitet, dem die Verbreitung falscher Informationen und die Missachtung von Datenschutzbestimmungen vorgeworfen wird.

Laut einem Bericht der Washington Post schickte die Wettbewerbsaufsichtsbehörde einen 20-seitigen Brief an OpenAI, in dem sie detaillierte Informationen über ihre Geschäftstätigkeit, einschließlich ihrer Datenschutzrichtlinie und der KI-Technologie, forderte. Datensicherheitsmaßnahmen und -prozesse.

Der Brief ist der jüngste Schritt der Regulierungsbehörden, die potenziellen Risiken generativer KI zu untersuchen, einer Art künstlicher Intelligenz, mit der realistische und überzeugende Texte, Bilder und Videos erstellt werden können. ChatGPT wurde im November mit großem Erfolg eingeführt und löste ein KI-„Wettrüsten“ aus.

Lies auch: Googles Bard AI Chatbot liest jetzt Bilder und spricht und wird auf die EU ausgeweitet

ChatGPT wird beschuldigt, Benutzern Schaden zuzufügen

Pro berichtenDie FTC untersucht, ob ChatGPT Menschen Schaden zugefügt hat, indem es falsche Antworten auf ihre Fragen gegeben hat. Es möchte wissen, ob das Unternehmen „unfaire oder irreführende Datenschutz- oder Datensicherheitspraktiken angewendet hat“, die den Nutzern „Reputationsschäden“ verursacht haben.

Die Federal Trade Commission fragte OpenAI nach den Sicherheitsvorkehrungen, die es getroffen hat, um zu verhindern, dass seine Modelle der künstlichen Intelligenz „Aussagen über reale Personen generieren, die falsch, irreführend oder herabwürdigend sind“.

Der Gründer und CEO von OpenAI, Sam Altman, äußerte sich enttäuscht darüber, dass er erst durch ein Leak gegenüber der Washington Post von der FTC-Untersuchung erfahren hatte. Schreiben Auf Twitter sagte Altman, dass der Schritt „nicht dazu beitragen würde, Vertrauen aufzubauen“, fügte aber hinzu, dass das Unternehmen mit der FTC zusammenarbeiten werde.

„Es ist uns sehr wichtig, dass unsere Technologie sicher und verbraucherfreundlich ist, und wir sind zuversichtlich, dass wir die Gesetze einhalten“, sagte er. „Wir schützen die Privatsphäre der Benutzer und gestalten unsere Systeme so, dass sie etwas über die Welt erfahren, nicht über Privatpersonen.“

Altman sprach auch über die neueste Technologie von OpenAI, GPT-4. Er sagte, das Modell sei „auf der Grundlage jahrelanger Sicherheitsforschung aufgebaut und habe nach Abschluss der ersten Schulung mehr als sechs Monate damit verbracht, es sicherer und besser auszurichten, bevor wir es auf den Markt brachten.“

„Wir machen uns die Grenzen unserer Technologie bewusst, insbesondere wenn wir diese nicht erreichen“, betonte der CEO.

Zum Zeitpunkt des Verfassens dieses Artikels hatte die Federal Trade Commission noch keinen offiziellen Kommentar veröffentlicht.

Weitere rechtliche Probleme für OpenAI

Die FTC-Untersuchung ist nicht die einzige rechtliche Herausforderung OpenAI muss sich Sorgen machen. Wie zuvor bei MetaNews berichtet, OpenAI wurde in einer Sammelklage auf 3 Milliarden US-Dollar verklagt, in der dem ChatGPT-Ersteller vorgeworfen wurde, Benutzerdaten gestohlen zu haben.

Nach Angaben des Beschwerde Laut dem am 28. Juni bei einem kalifornischen Bundesgericht eingereichten Verfahren nutzte OpenAI angeblich „gestohlene private Informationen“, um seine Produkte, darunter ChatGPT 3.5, ChatGPT 4, Dall-E und Vall-E, zu „trainieren und zu entwickeln“.

Letzte Woche die Komikerin Sarah Silverman und zwei weitere Autoren eingereicht eine Klage gegen OpenAI und Meta, in der behauptet wird, dass die KI-Systeme der Unternehmen ohne deren Erlaubnis auf urheberrechtlich geschütztem Material aus ihren Büchern trainiert wurden.

Die Autoren behaupten, dass die Unternehmen „Schattenbibliotheken“ mit urheberrechtlich geschütztem Material verwendet hätten, um ihre KI-Systeme zu trainieren, und dass dies eine Urheberrechtsverletzung darstelle.

Regulatorische Bedenken

Die rasante Entwicklung der KI hat Bedenken hinsichtlich der potenziellen Risiken der Technologie wie Voreingenommenheit, Diskriminierung und Datenschutzverletzungen geweckt. Infolgedessen beginnen Regulierungsbehörden auf der ganzen Welt, der aufstrebenden Branche große Aufmerksamkeit zu schenken.

Regierungen prüfen, wie bestehende Vorschriften, etwa zum Urheberrecht und zum Datenschutz, auf KI angewendet werden können. Sie erwägen auch neue Regeln, die möglicherweise erforderlich sind. Zwei Hauptschwerpunkte sind die Daten, die in KI-Modelle eingespeist werden, und die von ihnen generierten Inhalte.

In den Vereinigten Staaten hat der Mehrheitsführer im Senat, Chuck Schumer, eine „umfassende Gesetzgebung“ gefordert, um Schutzmaßnahmen für KI zu gewährleisten, berichtete die Washington Post. Er versprach außerdem, später in diesem Jahr eine Reihe von Foren abzuhalten, die darauf abzielen, „eine neue Grundlage für die KI-Politik zu legen“.

Kürzlich Papst Franziskus freigegeben Leitlinien für die verantwortungsvolle Entwicklung von KI. China und Europa Außerdem verschärfen und verfeinern sie die Vorschriften zur künstlichen Intelligenz.

TEILE DIESEN BEITRAG

Zeitstempel:

Mehr von MetaNews