Искусственный интеллект — это ответственность

Искусственный интеллект — это ответственность

Исходный узел: 3029233

КОММЕНТАРИЙ Искусственный интеллект, то есть большие фундаментальные модели, которые предсказывают текст и могут классифицировать изображения и речь, больше похож на пассив, чем на актив.

Пока что ущерб доллару был незначительным. В 2019 году водитель Tesla, управлявший своим автомобилем с помощью программного обеспечения автопроизводителя, проехал на красный свет и врезался в другой автомобиль. Пассажиры погибли, а автомобилист Tesla на прошлой неделе был приказал выплатить 23,000 XNUMX долларов в качестве компенсации.

Tesla примерно в то же время выпустила отзыв двух миллионов автомобилей пересмотрели свое программное обеспечение автопилота в ответ на расследование Национальной администрации безопасности дорожного движения США (NHTSA), которое обнаружило отсутствие средств контроля безопасности автопилота.

Двадцать три тысячи долларов — это немного за две жизни, но вовлеченные семьи подают гражданские иски против водителя и Теслы, поэтому стоимость может вырасти. И говорят, что есть как минимум дюжина исков с участием автопилота в США.

Между тем, в сфере здравоохранения UnitedHealthcare предъявляют иск потому что модель nH Predict AI Model, которую она приобрела в результате покупки Navihealth в 2020 году, якобы отказывала застрахованным пожилым людям в необходимой пост-неотложной помощи.

Требуются ограничения

Компании, продающие модели и услуги искусственного интеллекта, ясно понимают, что существует проблема. Они ссылаются на «ограждения», установленные вокруг основополагающих моделей, чтобы помочь им оставаться на своем пути – даже если эти не работает очень хорошо. Меры предосторожности такого рода были бы излишними, если бы эти модели не содержали материал о сексуальном насилии над ребенком и множество другого токсичного контента.

Это как если бы разработчики ИИ читали книгу писателя Алекса Блехмана. вирусный пост о технологических компаниях, интерпретирующих предостерегающую историю «Не создавайте связь мучений» как дорожную карту продукта и говорящих: «Мне кажется, это хорошо».

Конечно, есть и более старые литературные отсылки, подходящие для ИИ, такие как «Франкенштейн» Мэри Шелли или «Ящик Пандоры» — особенно хорошее совпадение, учитывая, что модели ИИ часто называют черными ящиками из-за отсутствия прозрачности учебных материалов.

Пока что непостижимость коммерческих моделей, наполненных вредоносным контентом, не нанесла слишком большого ущерба бизнесу. Есть недавний утверждать Крис Бакке, основатель и генеральный директор компании Laskie (приобретенной в этом году компанией, называющей себя X), рассказал, что чат-бот GM, используемый автосалоном в Уотсонвилле, штат Калифорния, уговорили согласиться продать Chevy Tahoe 2024 года выпуска. за $ 1 с небольшим количеством быстрого проектирования. Но дилерский центр вряд ли выполнит это обязательство.

Тем не менее, риск полагаться на модели ИИ достаточен, чтобы Google, Microsoftи Антропный предложили оградить клиентов от претензий по поводу авторских прав (которые многочисленны и по большей части не решены). Так делать нельзя, если нет риска ответственности.

"Регулирование"

Власти все еще пытаются выяснить, как следует оценивать ответственность ИИ. Посмотрите, как Европейская комиссия сформулировала этот вопрос, работая над созданием работоспособной правовой базы для искусственного интеллекта:

«Текущие правила ответственности, в частности национальные правила, основанные на вине, не адаптированы для рассмотрения исков о компенсации за вред, причиненный продуктами/услугами с поддержкой ИИ», — заявила Комиссия. — сказал [PDF] в прошлом году. «По таким правилам потерпевшим необходимо доказать неправомерные действия/бездействие лица, причинившего ущерб. Специфические характеристики ИИ, в том числе автономность и непрозрачность (так называемый эффект «черного ящика»), затрудняют или делают непомерно дорогими идентификацию ответственного лица и доказательство требований для успешного иска об ответственности».

И американские законодатели предложило Двухпартийная система искусственного интеллекта, чтобы «гарантировать, что компании, занимающиеся искусственным интеллектом, могут быть привлечены к ответственности посредством применения надзорными органами и частных прав на иск, когда их модели и системы нарушают конфиденциальность, нарушают гражданские права или иным образом причиняют ощутимый вред».

Не стоит слишком волноваться, увидев руководителей компаний, занимающихся искусственным интеллектом, за решеткой: участие лидеров отрасли искусственного интеллекта в этом процессе предполагает, что любые возникающие правила будут примерно так же эффективны, как и другие нормативные рамки, которые были обезврежены лоббистами.

Но волнение является частью проблемы: вокруг стохастических попугаев, как называют модели ИИ, очень много шумихи.

Модели ИИ имеют реальную ценность в некоторых контекстах, как отмечает охранная фирма Socket, которая использовала ChatGPT для флаг помощи уязвимости программного обеспечения. Они сотворили чудеса с распознаванием речи, переводом и распознаванием изображений, в ущерб расшифровкам и головоломкам CAPTCHA. Они напомнили ветеранам индустрии о том, как весело было играть с ними. Элиза, ранний чат-бот. Похоже, они действительно могут быть полезны в работе по поддержке принятия решений, при условии, что в процессе есть человек. И они взяли сложные заклинания командной строки с различными флагами и параметрами и превратили их в столь же сложные текстовые подсказки, которые могут продолжаться в течение абзацев.

Но автоматизация, обеспечиваемая ИИ, обходится дорого. В недавнем гайд Автор и активист научно-фантастического журнала Locus Кори Доктороу утверждал: «Компании, занимающиеся искусственным интеллектом, неявно делают ставку на то, что их клиенты будут покупать искусственный интеллект для весьма значимой автоматизации, пожарных и в результате нанесут физический, психический и экономический вред своим собственным клиентам. , каким-то образом избежав ответственности за этот вред».

Доктороу скептически относится к существованию значимого рынка услуг искусственного интеллекта в дорогостоящем бизнесе из-за рисков и полагает, что мы находимся в пузырь искусственного интеллекта. В качестве примера он приводит GM Cruise, отмечая, что бизнес-модель компании по производству беспилотных автомобилей – в подвешенном состоянии из-за травмы пешехода и отзыва – представляет собой замену каждого низкооплачиваемого водителя на 1.5 более дорогостоящих удаленных диспетчеров, не исключая при этом возможность аварий и связанных с ними судебных исков.

Перегрузка

По крайней мере, существует некоторый потенциал для малоценного бизнеса, связанного с ИИ. Они включают в себя ежемесячную оплату за доступ к API для неточного чата, алгоритмическую генерацию изображений, которая без разрешения использует стили художников, или генерируя сотни сайтов фейковых новостей (или книги) таким образом, что "затопляет зону» с дезинформацией.

Кажется маловероятным, что Arena Group утверждать что ее платформа искусственного интеллекта может сократить время, необходимое для создания статей для таких изданий, как Sports Illustrated, на 80-90 процентов, что повысит удовлетворенность читателей, лояльность к бренду или качество контента. Но, возможно, создание большего количества статей, чем это возможно для человека, в сотнях изданий фирмы приведет к большему количеству просмотров страниц ботами и увеличению доходов от программной рекламы от покупателей рекламы, слишком наивных, чтобы за ними зацепиться.

Частично проблема заключается в том, что основные промоутеры ИИ – Amazon, Google, Nvidia и Microsoft – управляют облачными платформами или продают оборудование с графическими процессорами. Это продавцы золотой лихорадки искусственного интеллекта, которые просто хотят продать свои облачные сервисы или наборы для обработки чисел. Все они были сторонниками блокчейн-экспресса и превосходства криптовалюты, пока это заблуждение не утихло.

Они с еще большим энтузиазмом помогают компаниям выполнять рабочие нагрузки ИИ, полезные или нет. Они просто засевают облака, надеясь привлечь бизнес к аренде процессоров. Точно так же стартапы машинного обучения без инфраструктуры надеются, что шумные разговоры о трансформационных технологиях повысят оценку их компании, чтобы вознаградить первых инвесторов.

Увлечение искусственным интеллектом также можно отчасти объяснить постоянным стремлением технологической отрасли ответить на вопрос: «Что будет дальше?» во время длительного стаза. Apple, Google, Amazon, Мета, Microsoftи Nvidia все делают все возможное, чтобы предотвратить серьезную конкуренцию, и с начала эры облачных технологий и мобильных технологий в середине 2000-х годов они добились этого довольно хорошо. Не то чтобы антиконкурентное поведение было чем-то новым – вспомните ситуацию в отрасли в 2010 году. поселок с Министерством юстиции США по поводу соглашений между Adobe, Google, Intel, Intuit и Pixar, чтобы избежать переманивания талантов друг у друга.

Microsoft сделала большую часть своей интеграции искусственного интеллекта с Bing, долгое время затмеваемой поиском Google, утверждая, что это «новый поиск». Но с тех пор мало что изменилось – Bing , по имеющимся данным не смогла отвоевать долю рынка у Google, в то время как широко распространено мнение, что поиск Google – теперь также насыщенный искусственным интеллектом – становится все хуже.

Принеси 2024 год

Чтобы узнать, что будет дальше, нам придется подождать, пока Министерство юстиции и регулирующие органы в других странах мира протолкнут изменения через антимонопольный правоприменение и судебные иски. Потому что в то время как Google имеет контроль над поисковым распространением – через сделки с Apple и другими – и цифровой рекламой – через свою сделку с Meta (очищен в США, по-прежнему под следствием в Европе и Великобритании) и другие виды деятельности, которые задетый интерес Министерства юстиции – ни поисковый бизнес, ни рекламный бизнес не кажутся поддающимися новым претендентам, независимо от того, сколько соуса ИИ в них добавлено.

ИИ — это ответственность не только в финансовом, но и в этическом смысле. Оно обещает экономию заработной платы – несмотря на будучи чрезвычайно дорого с точки зрения Обучение и развитие и воздействие на окружающую среду – при этом поощряя безразличие к человеческому труду, интеллектуальной собственности, вредной продукции и достоверности информации. ИИ предлагает компаниям исключить людей из уравнения, когда они часто добавляют ценность, которая не очевидна из балансового отчета.

Искусственный интеллект может быть по-настоящему полезным, но его необходимо использовать, чтобы помогать людям, а не избавляться от них. ®

Отметка времени:

Больше от Регистр