Звезда утверждает, что защита, созданная с помощью искусственного интеллекта, привела к несправедливому осуждению

Звезда утверждает, что защита, созданная с помощью искусственного интеллекта, привела к несправедливому осуждению

Исходный узел: 2942415

Легенда хип-хопа Прас Мишель, известный своим участием в культовой группе Fugees, сделал новаторский юридический шаг.

У него есть призвал к новому судебному разбирательству, утверждая, что его адвокаты опирались на искусственный интеллект на критических этапах судебного разбирательства. По мнению новой команды защиты Мишеля из базирующейся в Вашингтоне ArentFox Schiff, эта предполагаемая зависимость от искусственного интеллекта приравнивается к неэффективной помощи, что ставит музыканта в невыгодное положение.

Бывший адвокат Дэвид Кеннер находится в центре этого противоречия. Утверждается, что он использовал экспериментальную программу искусственного интеллекта для составления заключительного аргумента суда над Мишелем. Он не только якобы доверял ИИ для принятия важных решений, но он также предположительно имел финансовый интерес к самому программному обеспечению. Это открытие поднимает серьезные вопросы об этичности сочетания новых технологий с традиционными стратегиями правовой защиты.

Последствия и откровения

Масла в огонь подлило то, что предыдущий публицист Мишеля сообщил, что Кеннер заметил в заключении суда: «Наше заключение написал искусственный интеллект». Это заявление вызвало переполох в юридическом сообществе и вызывает обеспокоенность по поводу подлинности и обоснованности стратегий защиты, основанных на искусственном интеллекте.

Более того, компания Eyelevel, похоже, подтвердила использование своего инструмента генеративного искусственного интеллекта в испытании Мишеля. Хотя эту технологию хвалили как «меняющую правила игры в сложных судебных процессах», она не помешала Мишелю быстро вынести обвинительный приговор по всем 10 обвинениям в уголовных преступлениях.

Погружение в искусственный интеллект в юридической сфере

Хотя случай Мишеля может быть одним из первых, привлекших пристальное внимание, он не является изолированным. А отчету от Thomson Reuters показывает, как генеративный искусственный интеллект, способный создавать новый контент на основе пользовательских запросов, завоевал расположение юристов. Значительные 82% полагают, что генеративный ИИ может упростить юридическую работу.

Однако между автоматизацией и расширением существует ключевое различие. Эндрю Флетчер, директор по стратегии и партнерству в области искусственного интеллекта Thomson Reuters Labs, уточняет, что автоматизация может быть рискованным из-за требования точности в судебных разбирательствах. С другой стороны, расширение предлагает профессионалам инструменты, помогающие им в процессе принятия решений.

Зена Эпплбаум, вице-президент по маркетингу продуктов Thomson Reuters, подчеркнула, что эти инструменты искусственного интеллекта повышают эффективность юристов, а не заменяют их. Задача заключается в том, чтобы эксперты-люди тщательно проверяли результаты ИИ.

Риски ИИ в юридических процедурах

Внедрение ИИ в юридические процессы является непростой задачей. Проблемы конфиденциальности возникают при вводе конфиденциальной информации о клиенте в эти инструменты. Более того, были «галлюцинаций», где ИИ предоставляет сфабрикованные цитаты из дел и факты, вводя в заблуждение юристов.

Будущее генеративного искусственного интеллекта в юридической отрасли кажется многообещающим: профессионалы ожидают, что эти инструменты повысят их набор навыков. Однако эта эволюция требует осторожности, как отмечает Эндрю Флетчер:

«Люди, которые примут изменения, смогут сосредоточиться на более интересной работе».

Флорида принимает меры предосторожности

В ответ на потенциальные проблемы, создаваемые ИИ в юридической сфере, юристам Флориды вскоре может понадобиться согласие клиента на использование искусственного интеллекта в их случаях. Коллегия адвокатов Флориды рассматривает возможность создания консультативного заключения для определения правил использования генеративного искусственного интеллекта. Предложение также определит, требуют ли инструменты искусственного интеллекта такого же уровня контроля, как и помощники, не являющиеся юристами, и как эти инструменты могут повлиять на гонорары адвокатов.

Этот упреждающий подход основан на предыдущих инцидентах, когда фиктивные ссылки на дела, созданные искусственным интеллектом, вводили в заблуждение юристов, подчеркивая необходимость строгих правил.

По мере развития дела Пра Мишеля оно служит своевременным напоминанием о запутанном танце между технологиями и традиционными судебными разбирательствами. Хотя искусственный интеллект обещает совершить революцию в законодательстве, этот путь сопряжен с этическими дилеммами и проблемами, которые отрасль должна решать осторожно.

Отметка времени:

Больше от МетаНьюс