Радники прем'єр-міністра Індії кажуть, що ШІ може викликати "масову шизофренію"

Радники прем'єр-міністра Індії кажуть, що ШІ може викликати "масову шизофренію"

Вихідний вузол: 3091579

Економічна консультативна рада при прем’єр-міністрі Індії (EACPM) підготувала документ, в якому попереджає, що поточні глобальні правила штучного інтелекту, ймовірно, будуть неефективними, і рекомендує регулювати технологію за допомогою альтернативних тактик, як ті, що використовуються на фінансових ринках.

Рада дуже стурбована ШІ. Його документ попереджає: «Завдяки поєднанню стеження, переконливих повідомлень і генерації синтетичних медіа зловмисний штучний інтелект може все більше контролювати інформаційні екосистеми і навіть фабрикувати налаштовані обманні реальності, щоб примусити людей до поведінки, викликаючи масову шизофренію».

Організація критикує підхід США до штучного інтелекту як надто бездіяльний, підхід Великобританії як представляє ризик, оскільки він підтримує інновації та laissez faire, а правила ЄС щодо штучного інтелекту вважають недосконалими через розкол країн-членів блоку та прийняття різних акцентів і застосувань заходи впливу.

У документі також стверджується, що тенденція Китаю регулювати за допомогою «всемогутньої централізованої бюрократичної системи» є помилковою, про що свідчить «ймовірне походження COVID-19 з лабораторного витоку».

Ми тут у дзеркалі, люди.

(Для протоколу, Офіс директора національної розвідки США має не виявив ознак що вірус просочився з китайської лабораторії.)

Але ми відволікаємось.

Рада пропонує розглядати штучний інтелект як «децентралізовану самоорганізовану систему, [яка еволюціонує] через цикли зворотного зв’язку, фазові переходи та чутливість до початкових умов» і наводить інші приклади таких систем, як-от нелінійні сутності на фінансових ринках, поведінка мурашиних колоній. , або моделі трафіку.

«Традиційні методи недоцільні через нелінійну та непередбачувану природу ШІ. Системи штучного інтелекту схожі на складні адаптивні системи (CAS), де компоненти взаємодіють і розвиваються непередбачуваним чином», пояснені [PDF] рада.

Рада не хоче покладатися на «попередні» заходи, оскільки неможливо заздалегідь знати ризик, який представлятиме система ШІ – її поведінка є результатом занадто багатьох факторів.

Таким чином, документ пропонує Індії прийняти п’ять регуляторних заходів:

  • Встановлення огороджень та перегородок, який має гарантувати, що технології штучного інтелекту не перевищуватимуть своїх призначених функцій і не зазіхають на небезпечні території, як-от ухвалення рішень щодо ядерного озброєння. Якщо вони якимось чином порушують цю огорожу в одній системі, розділи існують, щоб переконатися, що це не поширюється.
  • Забезпечення ручного перевизначення та контрольних точок авторизації які дозволяють людям контролювати та захищати їх завдяки багатофакторній автентифікації та багаторівневому процесу перевірки для людей, які приймають рішення.
  • Прозорість і зрозумілість із такими заходами, як відкрите ліцензування основних алгоритмів для сприяння сприятливому середовищу аудиту, регулярні аудити та оцінки, а також стандартизована документація щодо розробки.
  • Виразна відповідальність за допомогою заздалегідь визначених протоколів відповідальності, обов’язкових стандартизованих звітів про інциденти та механізмів розслідування.
  • Створення спеціалізованого регуляторного органуякий має широкі повноваження, використовує підхід, що керується зворотним зв’язком, контролює та відстежує поведінку системи штучного інтелекту, інтегрує автоматизовані системи оповіщення та створює національний реєстр.

Рада рекомендувала шукати ідеї щодо реалізації своїх ідей в інших системах CAS – насамперед, на фінансових ринках.

«Інформація про управління хаотичними системами, такими як фінансові ринки, демонструє можливі підходи до регулювання для складних технологій», — зазначається в документі, припускаючи, що спеціалізовані регулятори штучного інтелекту можуть бути створені за моделлю фінансових регуляторів, таких як SEBI Індії або SEC США.

Подібно до того, як ці органи призупиняють торгівлю, коли ринки знаходяться в небезпеці, регулятори можуть прийняти подібні «задушливі точки», за яких штучний інтелект буде втрачений. Обов’язкова фінансова звітність є хорошою моделлю того виду розкриття інформації, який оператори штучного інтелекту можуть подавати.

Занепокоєння авторів підживлюється переконанням, що зростаюча повсюдність штучного інтелекту в поєднанні з непрозорістю його роботи означає, що критична інфраструктура, оборонні операції та багато інших сфер знаходяться під загрозою.

Серед небезпек, які вони окреслюють, є «штучний інтелект, що втікає», коли системи можуть рекурсивно самовдосконалюватися поза контролем людини та «невідповідати добробуту людини», а також ефект метелика — сценарій, «де незначні зміни можуть призвести до значних, непередбачуваних наслідків».

«Тому система непрозорого державного контролю над алгоритмами, навчальними наборами та моделями з метою максимізації інтересів може призвести до катастрофічних результатів», – попередила Рада.

У документі зазначається, що запропоновані ним правила можуть означати, що потрібно виключити деякі сценарії.

«Ми можемо ніколи не дозволити суперз’єднаний Інтернет із усього», — визнає Рада. Але в ньому робиться висновок, що людство може мати більше переваг від суворого регулювання.

«Тих, хто створює інструменти штучного інтелекту, не відпустять легко через передбачувані непередбачувані наслідки – таким чином вставляючи заплановану «шкіру в гру». Люди збережуть повноваження на перевизначення та авторизацію. Регулярні обов’язкові аудити повинні забезпечити пояснюваність». ®

Часова мітка:

Більше від Реєстр