Велика Британія відреагує на Білу книгу штучного інтелекту регулятивними тестами

Велика Британія відреагує на Білу книгу штучного інтелекту регулятивними тестами

Вихідний вузол: 3070094

Уряд Великобританії опублікує тести для нових законів щодо штучного інтелекту, зосереджуючись на безпеці та розвитку галузі. Інститут безпеки штучного інтелекту відіграватиме певну роль, оскільки правила будуть спричинені ризиками для безпеки або невідповідністю таких фірм, як OpenAI та Google.

За даними Financial Times, закони відповідають спрямованості уряду на опір створенню більш жорсткого режиму регулювання для технологій, що швидко розвиваються. Найближчими тижнями британські міністри оприлюднять критерії, у яких буде вказано, за яких обставин вони введуть обмеження на потужні моделі штучного інтелекту (ШІ), створені Google, OpenAI та іншими компаніями.

Команда Уряд Великобританії створити систему для спостереження за цим, тобто Інститут безпеки штучного інтелекту, орган, що складається з науковців і експертів з навчання. Якщо Інститут безпеки штучного інтелекту не зможе визначити ризики, пов’язані з цією технологією, буде розпочато втручання. Ще один тест, який може спровокувати законодавчі акти, полягає в тому, що компанії зі штучним інтелектом не дотримуються добровільних зобов’язань щодо уникнення шкоди.

Підхід уряду Великобританії до ШІ

У заяві, опублікованій урядом, підтверджується, що легкий підхід уряду Великобританії до регулювання ШІ буде відображено в публікації цих тестів. Відповідно до заяви, вони вживатимуть заходів для зменшення ризиків і підтримки безпеки та відповідальності Технологія AI в міру необхідності. У заяві було сказано, що вони підтримуватимуть підхід до інновацій у тісній консультації з громадянським суспільством і промисловістю.

Отже, філософія проходитиме «випробування», щоб прийняти законодавство про штучний інтелект, яке буде запропоновано урядом Великобританії, за умови, що будь-які нові закони не заважатимуть інноваціям без причини.

Зрозуміло, що тести мають бути опубліковані в рамках процесу консультацій щодо урядової білої книги щодо штучного інтелекту, опублікованої в березні 2023 року.

Whitepaper не обійшовся без критики. Карен Юнг, професор Бірмінгемського університету та докторант Емма Ахмед-Ренгерс, заявила, що документ є недостатньою основою для здорової політики. Там додали, що документ не може слугувати основою ефективної та легітимної нормативної бази в інтересах суспільства.

Проте деякі інші люди зазначили, що регулювання штучного інтелекту у Великій Британії почали займатися галузевими регуляторами. Це стосується Ofcom та Управління уповноваженого з питань інформації, які почали проводити алгоритмічні аудити у своїх сферах юрисдикції.

Велика Британія активно працює над нормами ШІ на міжнародному рівні

Компанії зі штучним інтелектом, зокрема OpenAI, Google, DeepMind, Microsoft і Meta, у листопаді підписали кілька добровільних політик. Вони стурбовані безпекою своїх продуктів у рамках глобального саміту з безпеки ШІ, організованого урядом Великобританії.

Ці компанії погодилися дозволити Інститут безпеки ШІ Великобританії оцінити безпеку моделей, які виробляють подібні продукти ChatGPT до того, як їх використають компанії та споживачі.

Отже, оцінка цих моделей триває, але як вона буде проводитися, залишається незрозумілим. Крім того, незрозуміло, чи нададуть компанії штучного інтелекту комплексний доступ. За словами урядовця, наразі їм пощастило, оскільки вони покладаються на добру волю з обох сторін. Чиновник продовжив, сказавши, що оцінка цих моделей залежить від характеру та генерального директора.

Часова мітка:

Більше від МетаНовини