Штучний інтелект є проблемою

Штучний інтелект є проблемою

Вихідний вузол: 3029233

коментар Штучний інтелект, тобто великі фундаментальні моделі, які передбачають текст і можуть класифікувати зображення та мову, виглядає більше як пасив, ніж як актив.

Поки що збитки в доларах були незначними. У 2019 році водій Tesla, який керував автомобілем за допомогою програмного забезпечення автопілота автовиробника, проїхав на червоне світло і збив інший автомобіль. Пасажири загинули, а минулого тижня – автомобіліст Tesla замовлений виплатити $23,000 XNUMX компенсації.

Приблизно в цей же час випускається Tesla відкликання двох мільйонів транспортних засобів для перегляду програмного забезпечення автопілота у відповідь на розслідування Національного управління безпеки дорожнього руху США (NHTSA), яке виявило відсутність засобів контролю безпеки автопілота.

Двадцять три тисячі доларів — це небагато для двох життів, але залучені сім’ї подають цивільні позови проти водія та Tesla, тому вартість може зрости. А там кажуть, щонайменше десяток позовів із залученням автопілота в США.

Тим часом у галузі охорони здоров’я UnitedHealthcare подається до суду тому що модель nH Predict AI, яку вона придбала через покупку Navihealth у 2020 році, нібито відмовляла застрахованим людям похилого віку в необхідному пост-невідкладному догляді.

Необхідні обмеження

Компанії, які продають моделі та послуги штучного інтелекту, чітко розуміють, що існує проблема. Вони посилаються на «огорожі», які встановлюють навколо базових моделей, щоб допомогти їм залишатися на смузі – навіть якщо ці не працюють дуже добре. Запобіжні заходи такого роду були б непотрібними, якби ці моделі не містили матеріали сексуального насильства над дітьми і набір іншого токсичного вмісту.

Це ніби розробники ШІ читають письменника Алекса Блехмана вірусний пост про технологічні компанії, які інтерпретують застереження «Не створюйте зв’язок мук» як дорожню карту продукту та сказали: «Для мене це добре».

Звичайно, є старіші літературні посилання, які підходять для ШІ, як-от «Франкенштейн» Мері Шеллі чи «Ящик Пандори» — особливо добре підходить, враховуючи, що моделі ШІ часто називають чорними скриньками через відсутність прозорості навчального матеріалу.

Наразі нерозбірливість комерційних моделей, усіяних шкідливим вмістом, не надто сильно вплинула на бізнес. Є недавній стверджувати Кріс Бакке, засновник і генеральний директор компанії Laskie (придбаної цього року компанією під назвою X), що чат-бот GM, який використовується автосалоном Ватсонвілля, штат Каліфорнія, домовився про продаж Chevy Tahoe 2024 року випуску. за $ 1 з трохи швидкої техніки. Але дилерський центр навряд чи виконає це зобов’язання.

Тим не менш, ризику покладатися на моделі ШІ достатньо Google, Microsoft та Антропний запропонували звільнити клієнтів від претензій щодо авторських прав (які численні та здебільшого невирішені). Це не те, що ви робите, якщо немає шансу на відповідальність.

Регулювання

Влада все ще намагається з’ясувати, як слід оцінювати відповідальність за штучний інтелект. Розглянемо, як Європейська комісія сформулювала це питання, коли вона працює над формулюванням працездатної правової бази для штучного інтелекту:

«Поточні правила про відповідальність, зокрема національні правила, що ґрунтуються на провині, не адаптовані для розгляду позовів про компенсацію за шкоду, заподіяну продуктами/послугами з підтримкою ШІ», — заявила Комісія. сказав [PDF] минулого року. «За такими правилами потерпілим необхідно довести протиправну дію/бездіяльність особи, яка завдала шкоди. Специфічні характеристики штучного інтелекту, включаючи автономність і непрозорість (так званий ефект «чорної скриньки»), ускладнюють або роблять надзвичайно дорогим ідентифікацію відповідальної особи та доведення вимог для успішного позову про відповідальність».

І законодавці США мають запропонований Двопартійна структура штучного інтелекту, щоб «забезпечити притягнення компаній штучного інтелекту до відповідальності через органи нагляду та приватні права на дії, коли їхні моделі та системи порушують конфіденційність, громадянські права або іншим чином спричиняють очевидну шкоду».

Не надто хвилюйтеся, побачивши за ґратами керівників фірм, що займаються штучним інтелектом: залучення лідерів галузі штучного інтелекту до цього процесу свідчить про те, що будь-які правила, які з’являться, будуть настільки ж ефективними, як і інші нормативні рамки, які були порушені лобістами.

Але хвилювання є частиною проблеми: навколо стохастичних папуг, як їх називають моделями ШІ, так багато галасу.

Як зазначає охоронна фірма Socket, яка використовувала ChatGPT для прапор довідки уразливості програмного забезпечення. Вони зробили чудеса з розпізнаванням мови, перекладом і розпізнаванням зображень, на шкоду транскрибувальникам і головоломкам CAPTCHA. Вони нагадали ветеранам галузі про те, як весело з ними було грати Еліза, ранній чат-бот. Схоже, вони справді корисні для підтримки прийняття рішень, за умови, що в циклі є людина. І вони взяли складні заклинання командного рядка з різними прапорцями та параметрами та перетворили їх на такі ж складні текстові підказки, які можна продовжувати абзацами.

Але автоматизація за допомогою штучного інтелекту коштує дорого. У недавньому стаття для науково-фантастичного журналу Locus автор і активіст Корі Доктороу стверджував: «Компанії, що займаються штучним інтелектом, непрямо роблять ставку на те, що їхні клієнти купуватимуть штучний інтелект для високозначної автоматизації, звільнення працівників і, як наслідок, завдадуть фізичної, психічної та економічної шкоди своїм клієнтам. , якимось чином уникаючи відповідальності за ці збитки».

Доктороу скептично ставиться до існування значущого ринку для послуг штучного інтелекту в дорогоцінних підприємствах через ризики та вважає, що ми перебуваємо в ШІ міхур. Як приклад він наводить GM Cruise, зазначаючи, що бізнес-модель компанії з безпілотних автомобілів – в підвішеному стані через травму пішохода та відкликання – означає заміну кожного низькооплачуваного водія на 1.5 більш дорогих дистанційних наглядачів, не виключаючи можливості аварій та пов’язаних з ними судових позовів.

Перевантаження

Принаймні є певний потенціал для малоцінного бізнесу, пов’язаного зі штучним інтелектом. Вони передбачають щомісячну оплату за доступ до API для неточного чату, алгоритмічне створення зображень, яке кооптує стилі художників без дозволу, або генеруючи сотні сайтів фейкових новин (або книги) таким чином, що "затоплює зону” з дезінформацією.

Здається малоймовірним, що Arena Group стверджувати що його платформа штучного інтелекту може скоротити час, необхідний для створення статей для таких видань, як Sports Illustrated, на 80-90 відсотків, що підвищить задоволеність читачів, лояльність до бренду або якість контенту. Але, можливо, створення більшої кількості статей, ніж це можливо, у сотнях найменувань фірми призведе до більшої кількості переглядів сторінок ботами та більшого доходу від програмної реклами від покупців реклами, які занадто наївні, щоб вловити.

Частково проблема полягає в тому, що основні промоутери штучного інтелекту – Amazon, Google, Nvidia та Microsoft – керують хмарними платформами або продають апаратне забезпечення GPU. Вони — постачальники кирок і лопат під час золотої лихоманки зі штучним інтелектом, які просто хочуть продавати свої хмарні сервіси чи набір для обробки чисел. Усі вони підтримували блокчейн-експрес і перевагу криптовалюти, поки ця ілюзія не розвіялася.

Вони з ще більшим ентузіазмом допомагають компаніям виконувати робочі навантаження ШІ, корисні чи інші. Вони просто закладають хмару, сподіваючись спрямувати бізнес на оренду процесора. Подібним чином стартапи з машинним навчанням без інфраструктури сподіваються, що голослівні розмови про трансформаційні технології підвищать оцінку їхньої компанії, щоб винагородити перших інвесторів.

Захоплення штучним інтелектом також можна частково пояснити постійними зусиллями технологічної індустрії знайти відповідь на запитання «Що буде далі?» під час тривалого стазу. Apple, Google, Amazon, Meta, Microsoft та Nvidia всі робили все можливе, щоб запобігти значущій конкуренції, і з початку хмарної та мобільної ери в середині 2000-х їм це вдалося досить добре. Не те, що антиконкурентна поведінка є чимось новим – згадайте галузь 2010 року поселення з Міністерством юстиції США щодо угод між Adobe, Google, Intel, Intuit і Pixar, щоб уникнути браконьєрства талантів одне в одного.

Корпорація Майкрософт зробила більшу частину своєї інтеграції штучного інтелекту з Bing, яка довго була затьмарена Пошуком Google, стверджуючи, що це «пошук заново.” Але з тих пір мало що змінилося – Bing як повідомляється не зміг забрати жодної частки ринку від Google, у той час, коли широко поширені настрої, що пошук Google, який тепер також насичений ШІ, погіршується.

Принесіть 2024 рік

Щоб дізнатися, що буде далі, нам доведеться дочекатися, поки Міністерство юстиції та регуляторні органи в інших країнах світу проведуть зміни антимонопольний виконавче провадження та позови. Оскільки Google блокує розповсюдження в пошуковій мережі – через угоди з Apple та іншими – і цифрову рекламу – через угоду з Meta (розмитнені в США, все ще досліджуваний у Європі та Великій Британії) та інші заходи, які збуджений інтереси Міністерства юстиції – ані пошуковий бізнес, ані рекламний бізнес не виглядають піддатливими для нових претендентів, незалежно від того, скільки соусу ШІ додається.

ШІ є відповідальністю не лише у фінансовому, а й у етичному сенсі. Це обіцяє економію заробітної плати – незважаючи на це будучи надзвичайно дорого з точки зору навчання, розвиток та вплив на навколишнє середовище – водночас заохочуючи байдужість до людської праці, інтелектуальної власності, шкідливої ​​продукції та достовірності інформації. Штучний інтелект заохочує компанії вилучити людей із рівняння, коли вони часто додають вартість, яку не видно з балансу.

Штучний інтелект може бути справді корисним, але його потрібно розгортати, щоб допомагати людям, а не позбуватися від них. ®

Часова мітка:

Більше від Реєстр