Rząd Wielkiej Brytanii opublikuje testy nowych przepisów dotyczących sztucznej inteligencji, koncentrując się na bezpieczeństwie i rozwoju branży. Instytut Bezpieczeństwa AI odegra pewną rolę, wprowadzając regulacje wynikające z zagrożeń bezpieczeństwa lub nieprzestrzegania przepisów przez firmy zajmujące się sztuczną inteligencją, takie jak OpenAI i Google.
Według „Financial Times” przepisy te są zgodne z dążeniem rządu do przeciwstawienia się tworzeniu bardziej rygorystycznych systemów regulacyjnych dla szybko rozwijających się technologii. W nadchodzących tygodniach brytyjscy ministrowie opublikują kryteria określające okoliczności, w których wprowadziliby ograniczenia dotyczące potężnych modeli sztucznej inteligencji (AI) tworzonych przez Google, OpenAI i inne firmy.
Połączenia Rząd Wielkiej Brytanii wdrożyła system monitorowania tego zjawiska, jakim jest Instytut Bezpieczeństwa AI – organ składający się z naukowców i ekspertów w dziedzinie nauczania. Jeżeli Instytut Bezpieczeństwa AI nie zidentyfikuje zagrożeń związanych z technologią, zostanie podjęta interwencja. Kolejnym testem, który może skutkować wprowadzeniem przepisów, jest niedopełnienie przez firmy zajmujące się sztuczną inteligencją dobrowolnych zobowiązań mających na celu uniknięcie szkód.
Podejście rządu Wielkiej Brytanii do sztucznej inteligencji
Oświadczenie opublikowane przez rząd potwierdza, że łagodne podejście brytyjskiego rządu do regulacji sztucznej inteligencji znajdzie odzwierciedlenie w publikacji tych testów. Jak czytamy w oświadczeniu, podejmą działania minimalizujące ryzyko oraz wspierające bezpieczeństwo i odpowiedzialność Technologia AI jako wymagane. W dalszej części oświadczenia stwierdzono, że utrzymają podejście proinnowacyjne w ścisłych konsultacjach ze społeczeństwem obywatelskim i przemysłem.
W związku z tym filozofia zostanie poddana „testom” w celu zatwierdzenia przepisów dotyczących sztucznej inteligencji, które mają zostać zaproponowane przez rząd Wielkiej Brytanii, z zastrzeżeniem, że żadne nowe przepisy nie będą bez przyczyny utrudniać innowacji.
🇬🇧 Wypracowanie proinnowacyjnego podejścia do regulacji AI
Opublikowany dzisiaj nowy dokument przedstawia podejście rządu do regulacji #AI technologii w Wielkiej Brytanii.
Przeczytaj artykuł tutaj: https://t.co/1xsb1b8SOF
(1 / 2) #NationalAIStrategia pic.twitter.com/Ke7fg59EaP
— Biuro Sztucznej Inteligencji (@OfficeforAI) 18 lipca 2022 r.
Rozumie się, że testy mają zostać opublikowane w ramach procesu konsultacji rządowej białej księgi AI, opublikowanej w marcu 2023 roku.
Biała księga nie pozostała bez krytyki. Karen Yeung, profesor na Uniwersytecie w Birmingham i doktorantka Emma Ahmed-Rengers, stwierdziła, że dokument nie stanowi wystarczającej podstawy dla rozsądnej polityki. Dodali, że dokument nie może służyć jako podstawa skutecznych i zgodnych z prawem ram regulacyjnych w interesie publicznym.
Niektóre inne osoby zwróciły jednak uwagę, że sektorowe organy regulacyjne zaczęły zajmować się regulacją sztucznej inteligencji w Wielkiej Brytanii. Dotyczy to Ofcom i Biura Komisarza ds. Informacji, które rozpoczęły przeprowadzanie audytów algorytmicznych w obszarach podlegających ich jurysdykcji.
Wielka Brytania aktywnie działa na rzecz norm dotyczących sztucznej inteligencji na arenie międzynarodowej
Firmy zajmujące się sztuczną inteligencją, w tym OpenAI, Google, DeepMind, Microsoft i Meta, podpisały w listopadzie kilka dobrowolnych polityk. Obawiają się bezpieczeństwa swoich produktów w ramach globalnego szczytu bezpieczeństwa AI zorganizowanego przez rząd Wielkiej Brytanii.
Google DeepMind, Meta, OpenAI wśród czołowych firm zajmujących się sztuczną inteligencją dzielących się polityką bezpieczeństwa przed szczytem w Wielkiej Brytanii
Czytaj więcej: https://t.co/1Bcj4L436b#DigWatchAktualizacje— Genewska platforma internetowa (@GenevaGIP) 30 października 2023 r.
Firmy te zgodziły się zezwolić na Brytyjski Instytut Bezpieczeństwa AI aby ocenić bezpieczeństwo modeli, z których powstają produkty takie jak ChatGPT zanim zostaną wykorzystane przez przedsiębiorstwa i konsumentów.
W związku z tym trwa ocena tych modeli, ale nie jest jasne, w jaki sposób zostaną one przeprowadzone. Nie jest również jasne, czy firmy zajmujące się sztuczną inteligencją zapewnią kompleksowy dostęp. Według urzędnika rządowego mają obecnie szczęście, ponieważ są zdani na dobrą wolę obu stron. Urzędnik kontynuował, mówiąc, że ocena tych modeli zależy od charakteru i dyrektora generalnego.
- Dystrybucja treści i PR oparta na SEO. Uzyskaj wzmocnienie już dziś.
- PlatoData.Network Pionowe generatywne AI. Wzmocnij się. Dostęp tutaj.
- PlatoAiStream. Inteligencja Web3. Wiedza wzmocniona. Dostęp tutaj.
- PlatonESG. Węgiel Czysta technologia, Energia, Środowisko, Słoneczny, Gospodarowanie odpadami. Dostęp tutaj.
- Platon Zdrowie. Inteligencja w zakresie biotechnologii i badań klinicznych. Dostęp tutaj.
- Źródło: https://metanews.com/uk-to-respond-to-ai-white-paper-with-regulatory-tests/
- :ma
- :Jest
- :nie
- $W GÓRĘ
- 11
- 2023
- 30
- 8
- a
- O nas
- naukowcy
- dostęp
- Stosownie
- Działania
- aktywny
- w dodatku
- uzgodniony
- przed
- AI
- algorytmiczny
- dopuszczać
- również
- wśród
- an
- i
- Inne
- każdy
- podejście
- SĄ
- obszary
- na około
- sztuczny
- sztuczna inteligencja
- Sztuczna inteligencja (AI)
- AS
- At
- kontrole
- uniknąć
- podstawa
- BE
- zanim
- zaczął
- Birmingham
- ciało
- obie
- Obie strony
- Brytyjski
- biznes
- ale
- by
- CAN
- kandydat
- nie może
- Spowodować
- okoliczności
- cywilny
- Zamknij
- przyjście
- nadchodzące tygodnie
- zobowiązania
- Firmy
- wszechstronny
- Składa się
- zaniepokojony
- Prowadzenie
- przeprowadzone
- konsultacja
- Konsumenci
- nadal
- stworzony
- Tworzenie
- Kryteria
- krytyka
- Obecnie
- DeepMind
- dokument
- Efektywne
- ustanowienie
- oceniać
- ewaluację
- eksperci
- FAIL
- nie
- budżetowy
- Financial Times
- firmy
- Skupiać
- skupienie
- W razie zamówieenia projektu
- Fundacja
- Framework
- Genewa
- Globalne
- Go
- Życzliwość
- Rząd
- Wzrost
- zaszkodzić
- Have
- tutaj
- W jaki sposób
- HTTPS
- zidentyfikować
- if
- in
- obejmuje
- Włącznie z
- przemysł
- Informacja
- Innowacja
- Instytut
- Inteligencja
- odsetki
- Internet
- interwencja
- jurysdykcja
- Karen
- Laws
- nauka
- Prawodawstwo
- prawowity
- lubić
- Linia
- utrzymać
- robić
- March
- Meta
- Microsoft
- ministrowie
- Złagodzić
- modele
- jeszcze
- Nowości
- normy
- listopad
- of
- Ofcom
- Biurowe
- urzędnik
- on
- OpenAI
- or
- Inne
- na zewnątrz
- wytyczne
- Papier
- część
- przechodzić
- Ludzie
- PhD
- filozofia
- Miejsce
- Platforma
- plato
- Analiza danych Platona
- PlatoDane
- Grać
- polityka
- polityka
- mocny
- wygląda tak
- Produkty
- Profesor
- zaproponowane
- zapewniać
- zaopatrzenie
- publiczny
- Publikacja
- publikować
- opublikowany
- położyć
- odzwierciedlenie
- reżim
- regulujący
- regulamin
- Regulatory
- regulacyjne
- szczątki
- wymagany
- Odpowiadać
- odpowiedzialny
- ryzyko
- Rola
- run
- "bezpiecznym"
- Bezpieczeństwo
- Powiedział
- powiedzenie
- sektorowy
- służyć
- kilka
- dzielenie
- Strony
- podpisana
- Społeczeństwo
- kilka
- Dźwięk
- rozpoczęty
- Stan
- Zestawienie sprzedaży
- Szczyt
- wsparcie
- system
- Brać
- Zadania
- Technologia
- test
- Testy
- że
- Połączenia
- The Financial Times
- Informacje
- UK
- ich
- Te
- one
- to
- Przez
- czasy
- do
- już dziś
- razem
- Top
- wyzwalać
- rozsierdzony
- prawdziwy
- i twitterze
- Uk
- Rząd Wielkiej Brytanii
- niejasny
- dla
- zrozumiany
- W toku
- uniwersytet
- Utrzymuj
- używany
- dobrowolny
- była
- Oglądaj
- tygodni
- czy
- który
- biały
- biały papier
- Księga zasad
- będzie
- w
- bez
- by
- zefirnet