OpenAI wyklucza użycie w wyborach i tłumienie głosów

OpenAI wyklucza użycie w wyborach i tłumienie głosów

Węzeł źródłowy: 3073710

Decydując się na walkę z dezinformacją podczas wyborów, OpenAI ogłosiło: rygorystyczne stanowisko przeciwko wykorzystywaniu narzędzi generatywnej sztucznej inteligencji w kampaniach wyborczych i taktykach tłumienia głosów.

Oświadczenie to stanowi istotny krok w kierunku zapewnienia integralności licznych kluczowych wyborów zaplanowanych na 2024 r.

Przeczytaj także: OpenAI negocjuje licencję na treści informacyjne z CNN, Fox i Time

Zwalczanie nadużyć za pomocą innowacji i polityki

OpenAI zainicjowało strategię mającą na celu zabezpieczenie swojej technologii przed wykorzystaniem do manipulowania wynikami wyborów. Firma powołała wyspecjalizowany zespół zajmujący się kwestiami wyborczymi, łączący wiedzę z różnych działów, w tym prawnego, inżynieryjnego i politycznego. Głównym celem tego zespołu jest identyfikacja i łagodzenie potencjalnych nadużyć AI podczas wyborów.

„Prowadzimy wielozadaniowy wysiłek poświęcony pracy wyborczej, łączący wiedzę specjalistyczną z naszych systemów bezpieczeństwa, zespołów ds. wywiadu o zagrożeniach, zespołów prawnych, inżynieryjnych i politycznych”.

Zagrożenie dezinformacją w polityce nie jest nowe, jednak pojawienie się technologii sztucznej inteligencji stwarza bezprecedensowe wyzwania. Mając to świadomość, OpenAI podejmuje proaktywne działania. Firma planuje zastosować kombinację technik, takich jak tworzenie zespołów czerwonych, zaangażowanie użytkowników i poręcze zabezpieczające. Konkretnie ich wizerunek narzędzie do generowania, DALL-E, został zaktualizowany, aby zapobiec tworzeniu obrazów przedstawiających prawdziwe osoby, w tym kandydatów politycznych.

„DALL·E ma bariery umożliwiające odrzucanie próśb zawierających prośbę o wygenerowanie wizerunku prawdziwych osób, w tym kandydatów”.

OpenAI stale weryfikuje swoje zasady dotyczące użytkowników, aby dotrzymać kroku zmieniającemu się krajobrazowi technologii AI i jej potencjalnemu niewłaściwemu wykorzystaniu. Zaktualizowane zasady bezpieczeństwa firmy obecnie wyraźnie ograniczają rozwój aplikacji AI na potrzeby kampanii politycznych i lobbingu. Dodatkowo wprowadzono środki zapobiegające tworzeniu chatbotów imitujących prawdziwe osoby lub organizacje.

Zwiększanie przejrzystości i odpowiedzialności

Kluczowym elementem strategii OpenAI jest wprowadzenie klasyfikatora pochodzenia dla narzędzia DALL-E. Ta funkcja, obecnie w fazie testów beta, może wykrywać obrazy generowane przez DALL-E. Celem firmy jest udostępnienie tego narzędzia dziennikarzom, platformom i badaczom w celu zwiększenia przejrzystości treści generowanych przez sztuczną inteligencję.

„Planujemy wkrótce udostępnić go naszej pierwszej grupie testerów – w tym dziennikarzom, platformom i badaczom – w celu uzyskania opinii”.

OpenAI integruje także raportowanie wiadomości w czasie rzeczywistym ChatGPT. Integracja ta ma na celu zapewnienie użytkownikom dokładnych i aktualnych informacji, zwiększając przejrzystość źródeł informacji dostarczanych przez sztuczną inteligencję.

We wspólnym wysiłku z Krajowym Stowarzyszeniem Sekretarzy Stanu w USA OpenAI koncentruje się na zapobieganiu zniechęcaniu swojej technologii do udziału w wyborach. Praca zespołowa polega na kierowaniu użytkowników chatbota korzystających z GPT do wiarygodnych witryn zawierających informacje o głosowaniu, takich jak CanIVote.org.

Rywale podążają ich śladem w wyścigu AI

Ogłoszenie OpenAI ustanowiło precedens w branży sztucznej inteligencji, wśród takich konkurentów jak Google LLC i Meta Platforms Inc. wdrażają również środki mające na celu zwalczanie dezinformacji rozpowszechnianej za pośrednictwem swoich technologii. Ten wspólny wysiłek liderów branży oznacza rosnącą świadomość i odpowiedzialność za potencjalny wpływ sztucznej inteligencji na procesy demokratyczne.

Ale czy to wystarczy? Charles King z Pund-IT Inc. podnosi kwestię krytyczną, kwestionując, czy środki te są stosowane we właściwym czasie, czy też są reaktywne. Twierdzi, że obawy dotyczące dezinformacji generowanej przez sztuczną inteligencję istniały od lat, a niedawne oświadczenie OpenAI można uznać za zbyt mało i za późno. Perspektywa ta prowokuje do głębszej refleksji nad rolą i odpowiedzialnością twórców sztucznej inteligencji w krajobrazie politycznym.

„W najlepszym razie to ogłoszenie sugeruje, że OpenAI spało na przełączniku. Ale w najgorszym przypadku przypomina to rytuał mycia rąk, na który OpenAI może wskazać, kiedy generatywna sztuczna inteligencja uderzy w fana podczas nadchodzących światowych wyborów w tym roku”.

Znak czasu:

Więcej z MetaWiadomości