AFP i inni giganci medialni wzywają do wprowadzenia globalnych regulacji dotyczących sztucznej inteligencji w celu ochrony uczciwości

AFP i inni giganci medialni wzywają do wprowadzenia globalnych regulacji dotyczących sztucznej inteligencji w celu ochrony uczciwości

Węzeł źródłowy: 2815840

Kilka czołowych światowych organizacji zajmujących się wiadomościami i wydawnictwami, w tym Agence France-Presse (AFP), European Pressphoto Agency, Getty Images i inne, podpisana list otwarty skierowany do decydentów i liderów branży. Wzywają do ustanowienia ram regulacyjnych dla generatywnych modeli sztucznej inteligencji w celu zachowania zaufania publicznego do mediów i ochrony integralności treści.

Pismo zatytułowane „ZACHOWANIE ZAUFANIA PUBLICZNEGO DO MEDIÓW POPRZEZ UJEDNOLICONE PRZEPISY I PRAKTYKI DOTYCZĄCE SI” określa szczegółowe zasady odpowiedzialnego rozwoju modeli sztucznej inteligencji i budzi obawy dotyczące potencjalnego ryzyka, jeśli odpowiednie przepisy nie zostaną szybko wdrożone.

Proponowany Regulamin

Wśród proponowanych zasad regulacji list podkreśla:

Przejrzystość: Ujawnianie zestawów treningowych wykorzystywanych do tworzenia generatywnych modeli sztucznej inteligencji, umożliwiających kontrolę potencjalnych błędów lub dezinformacji.

Ochrona własności intelektualnej: Ochrona praw twórców treści, których praca jest często wykorzystywana bez wynagrodzenia w szkoleniu modeli AI.

Negocjacje zbiorowe: Umożliwienie firmom medialnym zbiorowych negocjacji z twórcami modeli AI w sprawie korzystania z zastrzeżonej własności intelektualnej.

Identyfikacja treści generowanych przez sztuczną inteligencję: Nakaz jasnego, konkretnego i spójnego oznaczania wyników i interakcji generowanych przez sztuczną inteligencję.

Kontrola dezinformacji: wdrażanie środków ograniczających stronniczość, dezinformację i nadużycia usług AI.

Obawy i zagrożenia

List wyszczególnia potencjalne zagrożenia, jeśli przepisy nie zostaną niezwłocznie wprowadzone. Należą do nich erozja zaufania publicznego do mediów, naruszenia praw własności intelektualnej oraz podważanie tradycyjnych modeli biznesowych mediów.

Generatywne modele sztucznej inteligencji są w stanie wytwarzać i rozpowszechniać syntetyczne treści na niespotykaną dotąd skalę, co potencjalnie prowadzi do zniekształcania faktów i propagowania uprzedzeń. Ponadto list podkreśla wpływ finansowy na firmy medialne, które mogą widzieć, że ich treści są rozpowszechniane bez uznania autorstwa lub wynagrodzenia, co zagraża trwałości branży.

Wezwanie do ustanowienia globalnych standardów

Sygnatariusze nie tylko dążą do natychmiastowych działań regulacyjnych i branżowych, ale także wyrażają poparcie dla spójnych światowych standardów mających zastosowanie do rozwoju i wdrażania sztucznej inteligencji. Uznając potencjalne korzyści technologii generatywnej sztucznej inteligencji, list podkreśla konieczność odpowiedzialnego rozwoju w celu ochrony wartości demokratycznych i różnorodności mediów.

Chociaż list pochwala pewne wysiłki podjęte w społeczności AI i różnych rządach w celu rozwiązania tych problemów, istnieje zbiorowe wezwanie do dalszego dialogu i postępów w zakresie przepisów. Sygnatariusze wyrażają chęć bycia częścią rozwiązania, zapewniając dalszy rozwój aplikacji AI przy jednoczesnym poszanowaniu praw firm medialnych i indywidualnych dziennikarzy.

Ostatnie inicjatywy rządu USA w zakresie regulacji AI

Globalne obawy dotyczące regulacji AI, obejmujące prywatność, bezpieczeństwo, prawa autorskie i nadużycia, spotkały się z niedawnymi inicjatywami organów rządowych USA.

13 lipca 2023 r. amerykańska Federalna Komisja Handlu (FTC) rozpoczęła gruntowną analizę ZOBACZ do ChatGPT w związku z obawami dotyczącymi ochrony konsumentów. OpenAI, firma stojąca za ChatGPT, otrzymała 20-stronicowe żądanie od FTC, która w szczególności bada, czy postępowanie OpenAI z modelami AI było niesprawiedliwe lub wprowadzające w błąd, co może szkodzić reputacji ludzi.

W dniu 26 lipca 2023 r. SEC zaproponowane nowe zasady zapobiegające potencjalnym konfliktom interesów wynikającym z korzystania przez doradców inwestycyjnych i maklerów-dealerów z predykcyjnej analizy danych i sztucznej inteligencji. prezes SEC Gary Gensler ma nawet wyrażone obawia się, że sztuczna inteligencja może doprowadzić do kolejnego kryzysu finansowego.

Źródło obrazu: Shutterstock

Znak czasu:

Więcej z Blok Chain Aktualności