ChatGPT OpenAI objęty dochodzeniem dotyczącym RODO we Włoszech: grozi mu 30-dniowy termin obrony

ChatGPT OpenAI objęty dochodzeniem dotyczącym RODO we Włoszech: grozi mu 30-dniowy termin obrony

Węzeł źródłowy: 3088858

Włoski organ ochrony danych Garante wyraził obawy w związku z potencjalnymi naruszeniami RODO przez ChatGPT należący do OpenAI, wymagając od OpenAI obrony przed przetwarzaniem danych osobowych przez 30 dni.

Podniósł to włoski organ ochrony danych Garante dotyczy o potencjalnych naruszeniach ogólnego rozporządzenia o ochronie danych Unii Europejskiej (RODO) przez ChatGPT OpenAI. Nastąpiło to po wielomiesięcznym dochodzeniu, które doprowadziło do wystosowania do OpenAI oficjalnego zawiadomienia z podejrzeniem naruszenia unijnych przepisów dotyczących prywatności. OpenAI ma 30 dni na ustosunkowanie się i przedstawienie obrony przed tymi zarzutami.

Wcześniej włoski organ nakazał tymczasowy zakaz lokalnego przetwarzania danych przez ChatGPT we Włoszech, powołując się na takie kwestie, jak brak odpowiedniej podstawy prawnej do gromadzenia i przetwarzania danych osobowych w celu szkolenia algorytmów ChatGPT. Odnotowano również obawy dotyczące bezpieczeństwa dzieci i tendencję narzędzia AI do generowania niedokładnych informacji. OpenAI tymczasowo rozwiązało niektóre z tych problemów, ale obecnie stoi przed wstępnymi wnioskami, że jego działalność może naruszać prawo UE. Zasadnicza kwestia dotyczy podstawy prawnej OpenAI do przetwarzania danych osobowych w celu uczenia modeli sztucznej inteligencji, biorąc pod uwagę, że ChatGPT został opracowany przy użyciu danych pobranych z publicznego Internetu.

OpenAI początkowo uznawało „wykonanie umowy” za podstawę prawną szkolenia w oparciu o model ChatGPT, jednak zostało to zakwestionowane przez władze włoskie. Obecnie jedyną potencjalną podstawą prawną pozostaje zgoda lub uzasadnione interesy. Uzyskanie zgody od wielu osób, których dane były przetwarzane, wydaje się niepraktyczne, pozostawiając jako podstawową podstawę prawną uzasadnione interesy. Podstawa ta wymaga jednak, aby OpenAI umożliwiła osobom, których dane dotyczą, sprzeciw wobec przetwarzania, co stwarza wyzwania dla ciągłego działania chatbota AI.

W odpowiedzi na rosnące ryzyko regulacyjne w UE OpenAI stara się stworzyć fizyczną bazę w Irlandii, mając na celu zapewnienie nadzoru nad zgodnością z RODO przez irlandzką Komisję Ochrony Danych. Posunięcie to stanowi część szerszych wysiłków mających na celu rozwiązanie problemów związanych z ochroną danych w całej UE. Oprócz włoskiego śledztwa, OpenAI jest również badane w Polsce w związku ze skargą dotyczącą niedokładnych informacji przedstawionych przez ChatGPT i odpowiedzią OpenAI na skargę.

Wynik tego dochodzenia będzie prawdopodobnie miał znaczące konsekwencje nie tylko dla ChatGPT, ale także dla szerszego krajobrazu zastosowań sztucznej inteligencji i ich zgodności ze standardami ochrony danych w UE. W miarę rozwoju sytuacji podkreśla wyzwania i złożoność, przed którymi stoją innowacyjne technologie, takie jak chatboty AI, podczas radzenia sobie z rygorystycznymi przepisami dotyczącymi ochrony danych w Europie.

Źródło obrazu: Shutterstock

Znak czasu:

Więcej z Blok Chain Aktualności