Регулятор США проверяет ChatGPT OpenAI на предмет распространения лжи

Регулятор США проверяет ChatGPT OpenAI на предмет распространения лжи

Исходный узел: 2764806

Федеральная торговая комиссия США (FTC) начала расследование в отношении OpenAI в связи с возможными нарушениями законов о защите прав потребителей, связанных с его чат-ботом ChatGPT, который обвиняется в распространении ложной информации и нарушении правил конфиденциальности данных.

Согласно сообщению Washington Post, орган по надзору за конкуренцией отправил OpenAI письмо на 20 страницах с требованием подробной информации о его бизнес-операциях, включая политику конфиденциальности и технологию искусственного интеллекта. меры безопасности данных и процессы.

Это письмо является последним шагом регулирующих органов по тщательному изучению потенциальных рисков генеративного ИИ, типа искусственного интеллекта, который можно использовать для создания реалистичного и убедительного текста, изображений и видео. ChatGPT был запущен в ноябре и спровоцировал «гонку вооружений» ИИ.

Читайте также: Чат-бот Bard AI от Google теперь читает изображения и говорит, расширяется до ЕС

ChatGPT обвинили в причинении вреда пользователям

За отчету, FTC расследует, причинял ли ChatGPT людям вред, давая неправильные ответы на их вопросы. Он хочет знать, «участвовала ли компания в недобросовестных или вводящих в заблуждение методах обеспечения конфиденциальности или безопасности данных», которые нанесли пользователям «ущерб репутации».

Федеральная торговая комиссия спросила OpenAI о мерах предосторожности, которые она ввела, чтобы не допустить, чтобы ее модели искусственного интеллекта «генерировали заявления о реальных людях, которые являются ложными, вводящими в заблуждение или пренебрежительными».

Основатель и генеральный директор OpenAI Сэм Альтман выразил разочарование тем, что узнал о расследовании FTC только через утечку в Washington Post. Writing В Twitter Альтман сказал, что этот шаг «не поможет укрепить доверие», но добавил, что компания будет работать с FTC.

«Для нас очень важно, чтобы наша технология была безопасной и ориентированной на потребителя, и мы уверены, что соблюдаем закон», — сказал он. «Мы защищаем конфиденциальность пользователей и разрабатываем наши системы, чтобы узнавать о мире, а не о частных лицах».

Альтман также рассказал о новейшей технологии OpenAI, GPT-4. Он сказал, что модель была «построена на основе многолетних исследований безопасности, и после того, как мы закончили начальное обучение, мы потратили более 6 месяцев, чтобы сделать ее более безопасной и согласованной, прежде чем выпустить ее».

«Мы открыто говорим об ограничениях нашей технологии, особенно когда нам не хватает», — подчеркнул генеральный директор.

На момент написания статьи Федеральная торговая комиссия еще не опубликовала официального комментария.

Больше юридических головных болей для OpenAI

Расследование Федеральной торговой комиссии — не единственный юридический вызов, который OpenAI должен беспокоиться о. Как MetaNews ранее переправу, OpenAI предъявили иск на 3 миллиарда долларов по групповому иску, обвиняя создателя ChatGPT в краже пользовательских данных.

Согласно жалоба поданный в федеральный суд Калифорнии 28 июня, OpenAI якобы использовала «украденную личную информацию» для «обучения и разработки» своих продуктов, включая ChatGPT 3.5, ChatGPT 4, Dall-E и Vall-E.

На прошлой неделе комик Сара Сильверман и два других автора подано судебный процесс против OpenAI и Meta, в котором утверждается, что системы искусственного интеллекта компаний были обучены на материалах, защищенных авторским правом, из их книг без их разрешения.

Авторы утверждают, что компании использовали «теневые библиотеки» материалов, защищенных авторским правом, для обучения своих систем искусственного интеллекта, и что это является нарушением авторских прав.

Нормативные вопросы

Быстрое развитие ИИ вызвало опасения по поводу потенциальных рисков этой технологии, таких как предвзятость, дискриминация и нарушение конфиденциальности. В результате регулирующие органы во всем мире начинают уделять пристальное внимание развивающейся отрасли.

Правительства изучают, как существующие правила, например, регулирующие авторское право и конфиденциальность данных, могут быть применены к ИИ. Они также рассматривают новые правила, которые могут понадобиться. Две ключевые области — это данные, которые вводятся в модели ИИ, и контент, который они генерируют.

В Соединенных Штатах лидер большинства в Сенате Чак Шумер призвал к принятию «всеобъемлющего законодательства» для обеспечения гарантий в отношении ИИ, сообщает Washington Post. Он также пообещал провести серию форумов в конце этого года, чтобы «заложить новую основу для политики в области ИИ».

Недавно Папа Франциск выпустил рекомендации по ответственной разработке ИИ. Китай и Европе также ужесточают и настраивают правила искусственного интеллекта.

ПОДЕЛИТЬСЯ ЭТОЙ ЗАПИСЬЮ

Отметка времени:

Больше от МетаНьюс