OpenAI исключает использование на выборах и подавлении избирателей

OpenAI исключает использование на выборах и подавлении избирателей

Исходный узел: 3073710

В качестве решающего шага по борьбе с дезинформацией на выборах OpenAI объявила строгая позиция против использования инструментов генеративного искусственного интеллекта в избирательных кампаниях и тактики подавления избирателей.

Это объявление является важным шагом на пути к обеспечению честности многочисленных ключевых выборов, запланированных на 2024 год.

Читайте также: OpenAI ведет переговоры о лицензировании новостного контента с CNN, Fox и Time

Борьба со злоупотреблениями с помощью инноваций и политики

OpenAI инициировала стратегию защиты своей технологии от использования для манипулирования результатами выборов. Компания создала специализированную команду, занимающуюся вопросами, связанными с выборами, объединив опыт различных отделов, включая юридический, инженерный и политический. Основная цель этой команды — выявлять и смягчать потенциальные злоупотребления ИИ на выборах.

«У нас есть межфункциональные усилия, посвященные избирательной работе, объединяющие опыт наших систем безопасности, анализа угроз, юридических, инженерных и политических групп».

Угроза дезинформации в политике не нова, однако появление технологии искусственного интеллекта создает беспрецедентные проблемы. Понимая это, OpenAI принимает активные меры. Компания планирует использовать сочетание таких методов, как «красная команда», вовлечение пользователей и защитные ограждения. В частности, их образ инструмент генерации, DALL-E, было обновлено, чтобы предотвратить создание изображений, изображающих реальных людей, включая политических кандидатов.

«У DALL·E есть меры, позволяющие отклонять запросы, требующие создания изображений реальных людей, включая кандидатов».

OpenAI постоянно пересматривает свою пользовательскую политику, чтобы идти в ногу с развитием технологий искусственного интеллекта и возможными злоупотреблениями. Его обновленная политика безопасности теперь явно ограничивает разработку приложений ИИ для политических кампаний и лоббирования. Кроме того, были приняты меры по предотвращению создания чат-ботов, имитирующих реальных людей или организации.

Повышение прозрачности и подотчетности

Ключевым компонентом стратегии OpenAI является внедрение классификатора происхождения для инструмента DALL-E. Эта функция, которая в настоящее время находится на стадии бета-тестирования, может обнаруживать изображения, созданные DALL-E. Компания стремится сделать этот инструмент доступным для журналистов, платформ и исследователей, чтобы повысить прозрачность контента, создаваемого ИИ.

«Мы планируем вскоре предоставить его нашей первой группе тестировщиков, включая журналистов, платформы и исследователей, для обратной связи».

OpenAI также интегрирует новостные репортажи в реальном времени в ChatGPT. Эта интеграция направлена ​​на предоставление пользователям точной и своевременной информации, повышая прозрачность источников информации, предоставляемой ИИ.

Совместно с Национальной ассоциацией госсекретарей США OpenAI стремится не допустить, чтобы ее технология препятствовала участию в выборах. Командная работа предполагает направление пользователей чат-ботов на базе GPT на надежные сайты с информацией о голосовании, такие как CanIVote.org.

Соперники следуют их примеру в гонке ИИ

Заявление OpenAI создало прецедент в индустрии искусственного интеллекта, поскольку у него есть такие конкуренты, как Google LLC и Meta Platforms Inc. также реализуют меры по борьбе с дезинформацией, распространяемой через их технологии. Эти коллективные усилия лидеров отрасли означают растущее осознание и ответственность за потенциальное влияние ИИ на демократические процессы.

Но достаточно ли этого? Чарльз Кинг из Pund-IT Inc. поднимает критический вопрос, задаваясь вопросом, являются ли эти меры своевременными или реактивными. Он утверждает, что опасения по поводу дезинформации, генерируемой ИИ, существуют уже много лет, и недавнее заявление OpenAI можно рассматривать как слишком незначительное и слишком запоздалое. Эта перспектива побуждает к более глубокому размышлению о роли и ответственности разработчиков ИИ в политическом ландшафте.

«Так что в лучшем случае это объявление предполагает, что OpenAI спал на месте. Но в худшем случае это напоминает ритуал мытья рук, на который может указать OpenAI, когда генеративный ИИ поражает вентилятор во время предстоящих глобальных выборов в этом году».

Отметка времени:

Больше от МетаНьюс