Programiści znudzonej małpy porzucają system szkolenia wojskowego USA-Wielka Brytania

Programiści znudzonej małpy porzucają system szkolenia wojskowego USA-Wielka Brytania

Węzeł źródłowy: 1772253

Czy kiedykolwiek publikowałeś swoje zdjęcia na platformach społecznościowych, takich jak Facebook, Instagram, Tik Tok i inne? Jeśli tak, być może nadszedł czas, aby ponownie rozważyć te posty.

Dzieje się tak dlatego, że nowa technologia generowania obrazów AI pozwala teraz użytkownikom zapisywać kilka zdjęć i klatek wideo, na których jesteś, a następnie uczyć ją, aby tworzyła „realistyczne” podróbki twojego zdjęcia, przedstawiające cię w pozycjach wręcz zawstydzających, nielegalnych, a czasem kompromitujących.

Cóż, nie wszyscy są zagrożeni, ale zagrożenie jest realne.

Chociaż fotografie zawsze były podatne na manipulacja i fałszerstwo od czasów ciemni, w których filmami manipulowano nożyczkami i wklejano aż po dzisiejsze przeróbki pikseli w Photoshopie.

Chociaż w tamtych czasach było to zniechęcające zadanie i wymagało pewnych specjalistycznych umiejętności, obecnie tworzenie przekonujących fotorealistycznych podróbek stało się zbyt łatwe.

Najpierw model AI musi nauczyć się, jak renderować lub syntetyzować obraz kogoś na zdjęciu z modelu 2D lub 3D za pomocą oprogramowania. Gdy obraz zostanie pomyślnie wyrenderowany, w naturalny sposób staje się zabawką dla technologii i może generować nieskończoną liczbę obrazów.

Kiedy ktoś zdecyduje się udostępnić model AI, inne osoby również mogą się przyłączyć i zacząć tworzyć obrazy tej osoby.

Technologia sztucznej inteligencji, która tworzy niszczące życie głębokie fałszywe obrazy

Prawdziwe czy generowane przez sztuczną inteligencję?

Studia przypadków w mediach społecznościowych

Wolontariusz opisany jako „odważny” przez Ars Technica, publikacja techniczna, która początkowo pozwoliła firmie wykorzystać swoje obrazy do tworzenia podróbek, zmieniła zdanie.

Dzieje się tak, ponieważ w krótkim czasie wyniki renderowanych obrazów z modelu AI były zbyt przekonujące i zbyt szkodliwe dla reputacji ochotnika.

Biorąc pod uwagę wysokie ryzyko utraty reputacji, fikcyjna osoba John, stworzona przez sztuczną inteligencję, stała się naturalnym wyborem.

John, fikcyjny facet, był nauczycielem w szkole podstawowej, który jak wiele innych osób umieścił swoje zdjęcia na Facebooku w pracy, na luzie w domu i na jakimś tego typu wydarzeniu.

W dużej mierze nieszkodliwe obrazy „Johna” zostały wyrenderowane, a następnie wykorzystane do wyszkolenia sztucznej inteligencji, aby stawiała go w bardziej kompromitujących pozycjach.

Z zaledwie siedmiu obrazów sztuczną inteligencję można było wyszkolić do generowania obrazów, które sprawiają wrażenie, jakby John prowadził podwójne i sekretne życie. Na przykład pojawił się jako ktoś, kto lubił pozować nago do selfie w swojej klasie.

W nocy chodził do barów wyglądając jak klaun.

W weekendy należał do ekstremistycznej grupy paramilitarnej.

Sztuczna inteligencja stworzyła również wrażenie, że siedział w więzieniu za nielegalne narkotyki, ale ukrywał ten fakt przed swoim pracodawcą.

Na innym zdjęciu John, który jest żonaty, pozuje w biurze obok nagiej kobiety, która nie jest jego żoną.

Korzystanie z generatora obrazów AI o nazwie Stabilna dyfuzja (wersja 1.5) i technikę zwaną Dreambooth, Ars Technica była w stanie wyszkolić sztuczną inteligencję, jak generować zdjęcia Johna w dowolnym stylu. Chociaż John był tworem fikcyjnym, teoretycznie każdy mógł osiągnąć ten sam zestaw wyników z pięciu lub więcej obrazów. Obrazy te można pobrać z kont w mediach społecznościowych lub pobrać jako nieruchome klatki z filmu.

Proces uczenia sztucznej inteligencji, jak tworzyć obrazy Johna, trwał około godziny i był bezpłatny dzięki usłudze przetwarzania w chmurze Google.

Publikacja podała, że ​​po ukończeniu szkolenia tworzenie obrazów zajęło kilka godzin. I to nie dlatego, że generowanie obrazów było nieco powolnym procesem, ale dlatego, że trzeba było przeczesać wiele „niedoskonałych obrazów” i zastosować metodę „prób i błędów”, aby znaleźć najlepsze obrazy.

Badanie wykazało, że było to znacznie łatwiejsze niż próba stworzenia od podstaw fotorealistycznej podróbki „Johna” w Photoshopie.

Dzięki technologii ludzie tacy jak John mogą wyglądać, jakby działali nielegalnie lub dopuścili się niemoralnych czynów, takich jak włamanie do domu, używanie nielegalnych narkotyków i branie nagiego prysznica z uczniem. Jeśli modele sztucznej inteligencji zostaną zoptymalizowane pod kątem pornografii, ludzie tacy jak John mogą stać się gwiazdami porno niemal z dnia na dzień.

Można również stworzyć obrazy Johna robiącego pozornie nieszkodliwe rzeczy, które mogą być druzgocące, jeśli zostanie pokazany, jak pije w barze, kiedy przysiągł trzeźwość.

To się nie kończy.

Osoba może również pojawić się w lżejszym momencie jako średniowieczny rycerz lub astronauta. W niektórych przypadkach ludzie mogą być zarówno młodzi, jak i starzy, a nawet przebierać się.

Jednak renderowane zdjęcia są dalekie od doskonałości. Bliższe przyjrzenie się może je uznać za podróbki.

Minusem jest to, że technologia, która tworzy te obrazy, została znacznie ulepszona i może uniemożliwić odróżnienie zsyntetyzowanego zdjęcia od prawdziwego.

Jednak pomimo swoich wad, podróbki mogą rzucić cień wątpliwości na Johna i potencjalnie zrujnować jego reputację.

Ostatnio wiele osób używało tej samej techniki (z prawdziwymi ludźmi) do generowania dziwacznych i artystycznych zdjęć profilowych.

Również komercyjne usługi i aplikacje, takie jak soczewka wyrosło jak grzyby po deszczu, które zajmują się szkoleniem.

Jak to działa?

Praca nad Johnem może wydawać się niezwykła, jeśli nie śledzi się trendów. Dzisiaj inżynierowie oprogramowania wiedzą, jak tworzyć nowe, fotorealistyczne obrazy wszystkiego, co tylko można sobie wyobrazić.

Oprócz zdjęć sztuczna inteligencja kontrowersyjnie pozwoliła ludziom tworzyć nowe dzieła sztuki, które klonują prace istniejących artystów bez ich zgody.

Zawieszony ze względów etycznych

Mitch Jackson, amerykański prawnik ds. technologii, wyraził zaniepokojenie rozprzestrzenianiem się technologii deep fake na rynku i mówi, że przez większą część 2023 roku będzie badał skutki prawne technologii.

"Rozróżnienie między tym, co jest prawdziwe, a tym, co fałszywe, w końcu stanie się niemożliwe dla większości konsumentów”.

Adobe ma już technologię audio o nazwie Adobe VoCo, która pozwala każdemu brzmieć dokładnie tak, jak ktoś inny. Prace nad Adobe VoCo zostały zawieszone ze względów etycznych, ale dziesiątki innych firm udoskonalają tę technologię, a niektóre już dziś oferują alternatywy. Spójrz lub posłuchaj sam” – Mitchum powiedziany.

Mówi, że zdjęcia i wersje wideo głęboko fałszywych filmów są coraz lepsze.

„Czasami nie można odróżnić fałszywych filmów od prawdziwych” — dodaje.

Stable Diffusion wykorzystuje model syntezy obrazów oparty na głębokim uczeniu się, który może tworzyć nowe obrazy z opisów tekstowych i może działać na komputerze z systemem Windows lub Linux, na komputerze Mac lub w chmurze na wypożyczonym sprzęcie komputerowym.

Dzięki intensywnej nauce sieć neuronowa Stable Diffusion opanowała kojarzenie słów i ogólne statystyczne powiązanie między pozycjami pikseli na obrazach.

Z tego powodu można dać Stable Diffusion podpowiedź, na przykład „Tom Hanks w klasie”, a użytkownik otrzyma nowy obraz Toma Hanksa w klasie.

W przypadku Toma Hanka jest to spacer po parku, ponieważ setki jego zdjęć znajdują się już w zbiorze danych używanym do trenowania Stable Diffusion. Ale do robienia zdjęć ludzi takich jak John sztuczna inteligencja będzie potrzebować trochę pomocy.

Właśnie tam kopie Dreambooth.

Dreambooth, który został uruchomiony 30 sierpnia przez badaczy Google, wykorzystuje specjalną technikę do trenowania stabilnej dyfuzji w procesie zwanym „dostrajaniem”.

Początkowo Dreambooth nie był powiązany ze Stable Diffusion, a Google nie udostępnił swojego kodu źródłowego w obawie przed nadużyciami.

W krótkim czasie ktoś znalazł sposób na dostosowanie techniki Dreambooth do pracy ze Stable Diffusion i udostępnił kod swobodnie jako projekt open source, dzięki czemu Dreambooth stał się bardzo popularnym sposobem nauczania artystów AI nowych stylów artystycznych w Stable Diffusion.

Wpływ na cały świat

Szacuje się, że 4 miliardy ludzi na całym świecie korzysta z mediów społecznościowych. Ponieważ wielu z nas przesłało więcej niż garść swoich zdjęć, możemy stać się narażeni na takie ataki.

Chociaż wpływ technologii syntezy obrazu został przedstawiony z męskiego punktu widzenia, kobiety również zwykle ponoszą ciężar tego ciężaru.

Kiedy renderowana jest twarz lub ciało kobiety, jej tożsamość może zostać złośliwie wstawiona do obrazów pornograficznych.

Stało się to możliwe dzięki ogromnej liczbie zseksualizowanych obrazów znalezionych w zbiorach danych wykorzystywanych w szkoleniu AI.

Innymi słowy, oznacza to, że sztuczna inteligencja jest zbyt zaznajomiona z generowaniem tych obrazów pornograficznych.

Aby rozwiązać niektóre z tych problemów etycznych, firma Stability AI została zmuszona do usunięcia materiału NSFW ze swojego zestawu danych treningowych dla nowszej wersji 2.0.

Chociaż licencja na oprogramowanie zabrania ludziom używania generatora sztucznej inteligencji do robienia zdjęć ludzi bez ich zgody, potencjał egzekwowania jest bardzo niewielki lub żaden.

Dzieci również nie są bezpieczne przed syntetyzowanymi obrazami i mogą być zastraszane przy użyciu tej technologii, nawet w przypadkach, gdy obrazy nie są manipulowane.

Technologia sztucznej inteligencji, która tworzy niszczące życie głębokie fałszywe obrazy

Stworzony przez ludzi?

Czy jest coś, co możemy z tym zrobić?

Lista rzeczy do zrobienia różni się w zależności od osoby. Jednym ze sposobów jest podjęcie drastycznego kroku polegającego na całkowitym usunięciu obrazów offline.

Chociaż może to działać dla zwykłych ludzi, nie jest rozwiązaniem dla celebrytów i innych osób publicznych.

Jednak w przyszłości ludzie mogą być w stanie chronić się przed nadużyciami związanymi ze zdjęciami za pomocą środków technicznych. Przyszłe generatory obrazów AI mogą zostać prawnie zmuszone do osadzania niewidocznych znaków wodnych w swoich wynikach.

W ten sposób ich znaki wodne można później odczytać i ułatwić ludziom rozpoznanie, że są podróbkami.

"Konieczna jest szeroka regulacja. Każda zmanipulowana lub sfałszowana treść powinna mieć wyraźnie zaznaczoną literę lub ostrzeżenie, podobnie jak film (G, PG, R i X). Może coś w rodzaju Digitally Altertered lub DA," mówi Mitchum.

Stability AI uruchomiło w tym roku Stable Diffusion jako projekt open source.

Trzeba przyznać, że Stable Diffusion już domyślnie używa osadzonych znaków wodnych, ale ludzie uzyskujący dostęp do jego wersji open source mają tendencję do obchodzenia go, wyłączając komponent oprogramowania do znakowania wodnego lub całkowicie go usuwając.

MIT do złagodzenia

Chociaż są to wyłącznie spekulacje, znak wodny dodany dobrowolnie do osobistych zdjęć może zakłócić proces szkolenia Dreambooth. – powiedziała grupa naukowców z MIT FotoGuard, kontradyktoryjny proces, który ma na celu ochronę i ochronę sztucznej inteligencji przed syntezą istniejącego zdjęcia poprzez drobne modyfikacje za pomocą metody niewidocznego znaku wodnego. Jest to jednak ograniczone tylko do przypadków użycia edycji AI (często nazywanej „malowaniem”) i obejmuje szkolenie lub generowanie obrazów.

"AI przejmuje pisanie i malowanie! Głębokie podróbki zrujnują wideo!
Dobra.
Oznacza to, że występy na żywo stają się jeszcze BARDZIEJ wartościowe. Targi będą się rozwijać. Ludzie chcą robić interesy z ludźmi.
Meatspace to wciąż bestspace" Jonathana Pitcharda mówi.

Ostatnio rozpowszechniła się technologia AI, która pisze wiersze, rymowanki i piosenki. A niektórzy tacy są masteringi gry.

Krytycy negatywnie odnieśli się do postępu technologicznego i uważają, że sztuczna inteligencja przejmuje ludzką pracę.

/MetaWiadomości.

Znak czasu:

Więcej z MetaWiadomości