Eksperci ostrzegają przed rosnącym zagrożeniem ze strony sztucznej inteligencji dla dziennikarstwa w Senacie

Eksperci ostrzegają przed rosnącym zagrożeniem ze strony sztucznej inteligencji dla dziennikarstwa w Senacie

Węzeł źródłowy: 3067812

10 stycznia 2024 r. w Waszyngtonie odbyło się posiedzenie Senackiej Podkomisji ds. Prywatności, Technologii i Ustawy w sprawie „Sztucznej inteligencji i przyszłości dziennikarstwa”.

Podczas rozprawy, która odbyła się 10 stycznia, eksperci ostrzegali przed zagrożeniami, jakie sztuczna inteligencja (AI) stanowi dla dziennikarstwa. Zgodnie z zeznaniami dyrektorów mediów i ekspertów akademickich przed Podkomisją Sądownictwa Senatu ds. Prywatności, Technologii i Prawa, sztuczna inteligencja przyczynia się do wielki, napędzany technologią upadek dziennikarstwa.

Ponadto mówili o problemach związanych z własnością intelektualną w miarę szkolenia modeli sztucznej inteligencji do wykonywania pracy profesjonalnego dziennikarza. Podnieśli także alarm w związku z rosnącymi zagrożeniami wynikającymi z dezinformacji opartej na sztucznej inteligencji.

Problemy z prawami autorskimi

Generacyjne systemy sztucznej inteligencji, które mogą generować obrazy, tekst lub dowolny rodzaj multimediów, muszą być szkolone przy użyciu ogromnych ilości danych. Główny twórca sztucznej inteligencji, OpenAI, nawiązał współpracę z amerykańską agencją informacyjną non-profit Associated Press, aby uzyskać dostęp do wysokiej jakości danych tekstowych. Uzyskali dostęp do części archiwum AP, aby móc korzystać z produktów OpenAI.

Podobnie OpenAI współpracuje z międzynarodową firmą medialną Axel Springer. Jest to część, w której ChatGPT będzie podsumowywać artykuły serwisów informacyjnych należących do Axela Springera. ChatGPT udostępni także linki i przypisy. Jednak nie wszystkie serwisy informacyjne mają podobne oferty. „The New York Times” pozwał OpenAI i Microsoft, jego głównego inwestora, do sądu.

Jak wynika z pozwu, „The New York Times”. twierdzi że modele OpenAI zostały przeszkolone na ich materiałach. Powiedzieli także, że modele OpenAI oferują konkurencyjny produkt, co spowodowało straty ustawowe i faktyczne rzędu miliardów dolarów. W rezultacie 8 stycznia OpenAI odpowiedziało na pozew za pomocą wpisu na blogu. W poście na blogu zakwestionowano roszczenia prawne „Timesa” i odnotowano jego różne działania mające na celu wspieranie ekosystemu wiadomości zdrowotnych.

Co istotne, wśród spraw dotyczących praw autorskich wszczętych przeciwko twórcom sztucznej inteligencji pozew New York Timesa jest sprawą najgłośniejszą. Komik Sarah Silverman oraz autorzy Christopher Golden i Richard Kadrey pozwali OpenAI i Meta do sądu w lipcu 2023 r. Zostali pozwani za szkolenie swoich modeli sztucznej inteligencji w zakresie pisania bez pozwolenia.

Podobnie artystki Kelly McKernan, Sarah Andersen i Karla Orti pozwały Midjourney, Stability AI i DeviantArt w styczniu 2023 r. Firmy te rozwinięty generujących obrazy modeli sztucznej inteligencji i zostali pozwani za szkolenie modeli sztucznej inteligencji w swojej pracy. Jednakże sędzia okręgowy USA William Orrick oddalił część pozwu w październiku, a powodowie poprawili i złożyli pozew ponownie w listopadzie.

Roger Lynch, dyrektor generalny Condé Nast, twierdzi, że narzędzia generatywnej sztucznej inteligencji zbudowano ze skradzionych towarów. Condé Nast to firma medialna, która jest właścicielem kilku publikacji, w tym The New Yorker, Przewodowa, GQ. Na rozprawie wezwał do „interwencji Kongresu”, aby zapewnić, że twórcy sztucznej inteligencji płacą wydawcom za ich treści.

Co więcej, prezes i dyrektor generalny stowarzyszenia branżowego Krajowego Stowarzyszenia Nadawców, Curtis LeGeyt, stwierdził, że rozmowy legislacyjne są przedwczesne, utrzymując, że należy zastosować obecne zabezpieczenia praw autorskich. Powiedział, że powinni sprawić, aby rynek działał, ponieważ jest jasne, co obecne prawo ma zastosowanie do generatywnej sztucznej inteligencji.

Obawy związane z dezinformacją

Dodatkowo LeGeyt ostrzeżony senatorów o niebezpieczeństwie, jakie dla dziennikarstwa stanowią dezinformacje generowane przez sztuczną inteligencję. Kontynuował, że wykorzystywanie sztucznej inteligencji do manipulowania, fałszowania lub przywłaszczania podobizny zaufanych osobistości wiąże się z ryzykiem szerzenia dezinformacji lub oszustw.

Znak czasu:

Więcej z MetaWiadomości