Sztuczna inteligencja znaków wodnych nie wystarczy, jest podatna na fałszerstwa: najnowsze badanie

Sztuczna inteligencja znaków wodnych nie wystarczy, jest podatna na fałszerstwa: najnowsze badanie

Węzeł źródłowy: 2958163

Niedawne badanie wykazało, że znakowanie wodne treści generowanych przez sztuczną inteligencję w celu zwalczania dezinformacji ma luki, ponieważ znaki wodne można fałszować i hartować.

Wraz z pojawieniem się generatywnej sztucznej inteligencji, pobudzonej przez uruchomienie ChatGPT w listopadzie zeszłego roku, Internet jest w coraz większym stopniu zalewany treściami generowanymi przez sztuczną inteligencję, ale często mylonymi z treściami stworzonymi przez człowieka lub stworzonymi na podstawie modeli obliczeniowych, co wzywa organ ścigania Unii Europejskiej ostrzeżenie dla 90% treści internetowych mogą zostać utworzone lub edytowane przez sztuczną inteligencję do 2026 r.

Spowodowało to rosnące wezwania platform internetowych do znakowania wodnego treści generowanych przez sztuczną inteligencję, ale naukowcy z Uniwersytetu Technologicznego Nanyang w Singapurze, a także Uniwersytetu Chongqing i Uniwersytetu Zhejiang w Chinach ujawnili niedawno, że znaki wodne nie są ostatecznym rozwiązaniem.

Skuteczność znaków wodnych

Od lat istnieje historia oznaczanie dokumentów aby udowodnić ich autentyczność i własność, jak archiwum obrazów Getty Images, które Znaki wodne cyfrowe obrazy w swoim katalogu.

Jeśli chodzi o badaczy azjatyckich, chcieli ocenić przydatność znaków wodnych na obrazach, filmach i innych treściach generowanych przez sztuczną inteligencję jako sposobu na ograniczenie rozprzestrzeniania się deepfakes.

Ich badanie, które opublikowano na serwerze pre-print arXv, pokazuje, że napastnicy mogą wykorzystać dwa sposoby fałszowania znaków wodnych lub usuwania ich z treści generowanych przez sztuczną inteligencję.

„Pewnego wieczoru zastanawialiśmy się, czy moglibyśmy zbadać nowy, zaawansowany znak wodny w modelach generatywnych” – powiedział Guanlin Li, współautor artykułu Eksploracja technologii.

Dzieje się tak, ponieważ firmy i osoby fizyczne również oznaczają swoje treści znakami wodnymi, aby chronić adres IP lub „ograniczyć nielegalne użycie”.

„Właśnie powiedziałem: Hej, dlaczego nie zaatakować istniejącego systemu znaków wodnych? Jeśli uda nam się usunąć znak wodny, niektóre nielegalne treści AIGC (treści generowane przez sztuczną inteligencję) nie będą traktowane jako generowane przez sztuczną inteligencję. Może to spowodować duży chaos w Internecie” – powiedział Li.

Jednak badanie przedstawia podejście obliczeniowe do usuwania lub fałszowania znaków wodnych na zdjęciach tworzonych przez sztuczną inteligencję.

Przeczytaj także: Rozwój sztucznej inteligencji „całkowicie lekkomyślny” twierdzi amerykański naukowiec

Czyszczenie danych

Dostępny publicznie model odszumiania służy do „czyszczenia” danych po ich zebraniu od docelowej firmy zajmującej się sztuczną inteligencją, aplikacji lub usługi generującej treść. Korzystając z oczyszczonych danych, na ostatnim etapie trenuje się generatywną sieć kontradyktoryjną (GAN).

Co ciekawe, naukowcy odkryli, że model oparty na GAN może skutecznie usuwać lub fałszować znaki wodne po treningu.

Li szczegółowo opisał swoje podejście, mówiąc: „Jeśli chcemy zidentyfikować treść ze znakiem wodnym, dystrybucja treści ze znakiem wodnym powinna różnić się od oryginalnej”.

„Na tej podstawie, jeśli uda nam się poznać projekcję między tymi dwiema dystrybucjami, będziemy mogli usunąć lub sfałszować znak wodny” – dodał Li.

Wczesne eksperymenty wykazały, że ich podejście sprawdziło się bardzo dobrze zarówno w przypadku fałszowania, jak i usuwania znaków wodnych z różnych zdjęć generowanych przez sztuczną inteligencję.

Nic nowego pod słońcem

Zgodnie z Vox, problemy związane z dezinformacją w Internecie istniały od zawsze, zanim narzędzia generatywnej sztucznej inteligencji, takie jak ChatGPT, stały się wirusowe. Ale te narzędzia, w tym Płyta, Midjourney i Photoshop ułatwiły tworzenie fałszywych obrazów, filmów i tekstu.

Aby zawęzić pomyłkę między fałszywymi i prawdziwymi obrazami, OpenAI's Płyta w dodatku kolorowy znak wodny w paski u dołu generowanych obrazów, a firma Adobe udostępnia również narzędzie do etykietowania.

Połączenia EU wezwał również platformy internetowe do umieszczania znaków wodnych na treściach generowanych przez sztuczną inteligencję, aby umożliwić użytkownikom rozróżnienie treści rzeczywistych od treści stworzonych przez sztuczną inteligencję.

Wyniki badania budzą jednak obawy co do wiarygodności stosowania znaków wodnych w celu ochrony praw autorskich AIGC. Li podkreślił, że ich podejście opiera się na rozproszeniu danych, co sugeruje, że bezpieczeństwo stosowanych obecnie systemów znaków wodnych może nie być tak silne, jak wcześniej sądzono.

Chociaż stosowanie znaków wodnych w treściach AI może powodować trudności, badanie to wykazało, że jest w nich również miejsce na kreatywność. Li i jego współpracownicy mieli nadzieję, że dzieląc się swoimi badaniami, firmy i programiści zajmujące się generatywną sztuczną inteligencją będą zmotywowani do tworzenia bardziej wyrafinowanych technik znakowania wodnego lub badania różnych metodologii w celu lepszego zabezpieczenia AIGC.

„Obecnie koncentrujemy się przede wszystkim na opracowywaniu nowych schematów znaków wodnych dla modeli generatywnych, nie tylko do generowania obrazów, ale także do innych modeli sztucznej inteligencji” – dodał Li.

Znak czasu:

Więcej z MetaWiadomości