Важность многообразия в ИИ – это не мнение, а математика - Блог IBM

Важность разнообразия в ИИ – это не мнение, а математика – Блог IBM

Исходный узел: 3084301


Важность разнообразия в ИИ – это не мнение, а математика – Блог IBM




Мы все хотим, чтобы наши идеальные человеческие ценности отражались в наших технологиях. Мы ожидаем, что такие технологии, как искусственный интеллект (ИИ), не будут лгать нам, не будут дискриминировать и будут безопасными для нас и наших детей. Тем не менее, многие создатели ИИ в настоящее время сталкиваются с негативной реакцией из-за предвзятости, неточностей и проблемных методов работы с данными, выявленных в их моделях. Эти проблемы требуют большего, чем просто техническое, алгоритмическое решение или решение на основе искусственного интеллекта. На самом деле необходим целостный, социотехнический подход.

Математика демонстрирует мощную истину

Все прогнозные модели, включая искусственный интеллект, становятся более точными, если они учитывают разнообразный человеческий интеллект и опыт. Это не мнение; оно имеет эмпирическую обоснованность. Рассмотрим теорема о предсказании разнообразия. Проще говоря, когда разнообразие в группе велико, ошибка толпы невелика, что подтверждает концепцию «мудрости толпы». В одном влиятельном исследовании было показано, что различные группы людей, решающих проблемы с низкими способностями, могут превосходить группы людей, решающих проблемы с высокими способностями (Хонг и Пейдж, 2004 г.).

На математическом языке: чем шире ваша дисперсия, тем более стандартным будет ваше среднее значение. Уравнение выглядит так:

A дальнейшее обучение предоставили дополнительные расчеты, которые уточняют статистические определения мудрой толпы, включая незнание прогнозов других членов и включение тех, у кого есть максимально разные (отрицательно коррелированные) прогнозы или суждения. Таким образом, не только объем, но и разнообразие улучшает прогнозы. Как это понимание может повлиять на оценку моделей ИИ?

(не)точность модели

Процитируем распространенный афоризм: все модели неверны. Это справедливо и в области статистики, науки и искусственного интеллекта. Модели, созданные без знания предметной области, могут привести к ошибочный выходы.

Сегодня небольшая однородная группа людей определяет, какие данные использовать для обучения генеративных моделей ИИ, которые черпаются из источников, которые значительно перепредставлены на английском языке. «Для большинства из более чем 6,000 языков мира имеющихся текстовых данных недостаточно для обучения крупномасштабной базовой модели» (из «О возможностях и рисках моделей фундамента», Боммасани и др., 2022).

Кроме того, сами модели создаются на основе ограниченных архитектур: «Почти все современные модели НЛП теперь адаптированы из одной из нескольких базовых моделей, таких как BERT, RoBERTa, BART, T5 и т. д. Хотя эта гомогенизация приводит к чрезвычайно высокий рычаг (любые улучшения в базовых моделях могут привести к немедленным выгодам во всем НЛП), это также является обязательством; все системы ИИ могут унаследовать одни и те же проблемные предубеждения некоторых базовых моделей (Боммасани и др.) "

Чтобы генеративный ИИ лучше отражал разнообразные сообщества, которым он служит, в моделях должно быть представлено гораздо более широкое разнообразие данных о людях.

Оценка точности модели идет рука об руку с оценкой систематической ошибки. Мы должны задаться вопросом: какова цель модели и для кого она оптимизирована? Рассмотрим, например, кто больше всего выигрывает от алгоритмов рекомендации контента и алгоритмов поисковых систем. Заинтересованные стороны могут иметь совершенно разные интересы и цели. Алгоритмы и модели требуют целей или прокси для ошибки Байеса: минимальной ошибки, которую должна улучшить модель. Этим доверенным лицом часто является человек, например эксперт в предметной области с опытом работы в предметной области.

Очень человечная задача: оценка рисков перед закупкой или разработкой модели

Новые правила и планы действий в области ИИ все больше подчеркивают важность алгоритмических форм оценки воздействия. Цель этих форм — собрать важную информацию о моделях ИИ, чтобы команды управления могли оценить и устранить риски перед их развертыванием. Типичные вопросы включают в себя:

  • Каков вариант использования вашей модели?
  • Каковы риски несопоставимого воздействия?
  • Как вы оцениваете справедливость?
  • Как вы делаете свою модель объяснимой?

Несмотря на то, что эта модель разработана с благими намерениями, проблема в том, что большинство владельцев моделей ИИ не понимают, как оценивать риски для своего варианта использования. Распространенным рефреном может быть: «Как моя модель может быть несправедливой, если она не собирает личную информацию (PII)?» Следовательно, формы редко заполняются с той тщательностью, которая необходима системам управления для точного выявления факторов риска.

Таким образом, подчеркивается социотехнический характер решения. Владельцу модели — физическому лицу — нельзя просто дать список флажков, чтобы оценить, причинит ли его вариант использования вред. Вместо этого необходимы группы людей с самым разным жизненным опытом, объединяющиеся в сообщества, которые обеспечивают психологическую безопасность, чтобы вести трудные разговоры о несопоставимых воздействиях.

Приветствуя более широкие перспективы для надежного искусственного интеллекта

IBM® верит в подход «нулевого клиента», внедряя рекомендации и системы, которые она создала бы для своих клиентов, в рамках консалтинговых и продуктовых решений. Этот подход распространяется и на этическую практику, поэтому IBM создала Надежный центр передового опыта в области искусственного интеллекта (COE).

Как объяснялось выше, разнообразие опыта и навыков имеет решающее значение для правильной оценки воздействия ИИ. Но перспектива участия в Центре передового опыта может напугать компанию, полную новаторов в области искусственного интеллекта, экспертов и выдающихся инженеров, поэтому необходимо развивать сообщество психологической безопасности. IBM ясно сообщает об этом, говоря: «Заинтересованы в искусственном интеллекте? Интересуетесь этикой ИИ? Тебе место за этим столом.

COE предлагает обучение по этике искусственного интеллекта для практиков любого уровня. Предлагаются как синхронные программы обучения (учитель и ученики в классе), так и асинхронные (самостоятельные).

Но это COE прикладной обучение, которое дает нашим практикам самое глубокое понимание, поскольку они работают с глобальными, разнообразными, многопрофильными командами над реальными проектами, чтобы лучше понять разное воздействие. Они также используют структуры дизайн-мышления, разработанные IBM. Дизайн для ИИ группа использует внутри компании и совместно с клиентами для оценки непредвиденных последствий моделей ИИ, уделяя особое внимание тем, кто часто оказывается маргинализированным. (См. Сильвию Дакворт Колесо власти и привилегий для примеров того, как личные характеристики пересекаются, приводя к привилегиям или маргинализации людей.) IBM также передала многие из инфраструктур сообществу открытого исходного кода. Проектируйте этически.

Ниже приведены некоторые из публично опубликованных IBM отчетов об этих проектах:

Инструменты управления автоматизированной моделью ИИ необходимы для получения важной информации о том, как работает ваша модель ИИ. Но учтите, что оптимально учитывать риски задолго до того, как ваша модель будет разработана и запущена в производство. Создавая сообщества разнообразных, междисциплинарных практиков, которые предлагают людям безопасное пространство для жестких дискуссий о разном влиянии, вы можете начать свой путь к практической реализации своих принципов и ответственной разработке ИИ.

На практике, когда вы нанимаете специалистов по искусственному интеллекту, учтите, что более 70% усилий по созданию моделей приходится на подбор правильных данных. Вы хотите нанять людей, которые знают, как собирать репрезентативные данные, которые также собираются с согласия. Вы также хотите, чтобы люди, которые умеют тесно сотрудничать с экспертами в предметной области, убедились, что у них правильный подход. Ключевым моментом является обеспечение этих практиков эмоциональным интеллектом, позволяющим подходить к задаче ответственного курирования ИИ со смирением и проницательностью. Мы должны целенаправленно научиться распознавать, как и когда системы ИИ могут усугубить неравенство так же, как они могут увеличить человеческий интеллект.

Измените принципы работы вашего бизнеса с помощью ИИ

Была ли эта статья полезна?

ДаНет


Больше об искусственном интеллекте




Баланс ИИ: делайте добро и избегайте вреда

5 мин чтенияВ детстве мой отец всегда говорил: «Делай добро». В детстве я думал, что это отвратительная грамматика, и поправлял его, настаивая на том, что нужно «преуспеть». Даже мои дети дразнят меня, когда слышат его совет «делай добро», и я признаю, что позволил ему сдать экзамен по грамматике. В случае ответственного искусственного интеллекта (ИИ) организациям следует уделять первоочередное внимание способности избегать вреда. Некоторые организации могут также стремиться использовать…




Как страховые компании сотрудничают с IBM для внедрения генеративных решений на основе искусственного интеллекта

7 мин чтенияIBM работает со своими страховыми клиентами по разным направлениям, и данные IBM Institute for Business Value (IBV) выявили три ключевых императива, которые определяют управленческие решения страховщиков: Внедрить цифровую трансформацию, чтобы позволить страховщикам предлагать новые продукты, стимулировать рост доходов и улучшать качество обслуживания клиентов. опыт. Повышайте основную производительность (бизнеса и ИТ) при одновременном снижении затрат. Осуществите поэтапную модернизацию приложений и данных с использованием безопасного гибридного облака и искусственного интеллекта. Страховщики должны выполнить следующие ключевые требования, чтобы облегчить трансформацию своей…




Раскрытие возможностей чат-ботов: ключевые преимущества для бизнеса и клиентов

6 мин чтенияЧат-боты могут помочь вашим клиентам и потенциальным клиентам быстро находить или вводить информацию, мгновенно отвечая на запросы, использующие аудиовход, текстовый ввод или их комбинацию, устраняя необходимость вмешательства человека или ручных исследований. Чат-боты повсюду, они обеспечивают поддержку клиентов и помогают сотрудникам, которые используют умные колонки дома, SMS, WhatsApp, Facebook Messenger, Slack и множество других приложений. Новейшие чат-боты с искусственным интеллектом (ИИ), также известные как интеллектуальные виртуальные помощники или виртуальные агенты, не только…




Присоединяйтесь к нам в авангарде искусственного интеллекта для бизнеса: Think 2024

<1 мин чтенияВы хотите использовать ИИ для повышения производительности и инноваций в своем бизнесе. Вам нужно выйти за рамки экспериментирования и перейти к масштабированию. Вы должны двигаться быстро. Присоединяйтесь к нам в Бостоне на Think 2024 — уникальном и увлекательном мероприятии, которое поможет вам в вашем ИИ-путешествии в бизнесе, где бы вы ни находились. От повышения готовности к искусственному интеллекту с помощью продуманного подхода к гибридному облаку до масштабирования искусственного интеллекта для основных бизнес-функций и потребностей отрасли и внедрения искусственного интеллекта в…

Информационные бюллетени IBM

Получайте наши информационные бюллетени и обновления тем, в которых представлены последние передовые идеи и понимание новых тенденций.

Подписаться

Больше информационных бюллетеней

Отметка времени:

Больше от Интернет вещей IBM