Растущие опасения по поводу безопасности ChatGPT подчеркивают необходимость общественного просвещения и прозрачности в отношении рисков ИИ

Растущие опасения по поводу безопасности ChatGPT подчеркивают необходимость общественного просвещения и прозрачности в отношении рисков ИИ

Исходный узел: 2556048

Развитие искусственного интеллекта (ИИ) вызвало волну опасений по поводу безопасности и конфиденциальности, особенно по мере того, как эти технологии становятся все более совершенными и интегрируются в нашу повседневную жизнь. Одним из наиболее ярких примеров технологии ИИ является ChatGPT, языковая модель искусственного интеллекта, созданная OpenAI и поддерживаемая Microsoft. На данный момент миллионы людей уже использовали ChatGPT с момента его запуска в ноябре 2022 года.

В последние дни запросы «безопасен ли ChatGPT?» резко возросли, поскольку люди во всем мире выражают обеспокоенность потенциальными рисками, связанными с этой технологией.

Согласно данным Google Trends, запросы «безопасен ли ChatGPT?» выросли на огромные 614% с 16 марта. Данные были обнаружены Криптоманиакс.com, ведущая образовательная платформа в области криптографии, призванная помочь новичкам и новичкам в криптовалюте понять мир блокчейна и криптовалюты.

Всплеск поиска информации о безопасности ChatGPT подчеркивает необходимость повышения осведомленности общественности и прозрачности в отношении систем ИИ и их потенциальных рисков. Поскольку технология искусственного интеллекта, такая как ChatGPT, продолжает развиваться и интегрироваться в нашу повседневную жизнь, важно решать возникающие проблемы безопасности, поскольку могут быть потенциальные опасности, связанные с использованием ChatGPT или любого другого чат-бота с искусственным интеллектом.

ChatGPT разработан, чтобы помочь пользователям генерировать человеческие ответы на свои запросы и участвовать в беседе. Таким образом, вопросы конфиденциальности являются одним из наиболее значительных рисков, связанных с использованием ChatGPT. Когда пользователи взаимодействуют с ChatGPT, они могут непреднамеренно делиться личной информацией о себе, например, своим именем, местоположением и другими конфиденциальными данными. Эта информация может быть уязвима для взлома или других форм кибератак.

Еще одна проблема — возможность дезинформации. ChatGPT запрограммирован генерировать ответы на основе входных данных, которые он получает от пользователей. Если ввод неверный или вводящий в заблуждение, ИИ может генерировать неточные или вводящие в заблуждение ответы. Кроме того, модели ИИ могут увековечивать предубеждения и стереотипы, присутствующие в данных, на которых они обучаются. Если данные, используемые для обучения ChatGPT, содержат предвзятые или предвзятые формулировки, ИИ может генерировать ответы, закрепляющие эти предубеждения.

В отличие от других помощников ИИ, таких как Siri или Alexa, ChatGPT не использует Интернет для поиска ответов. Вместо этого он генерирует ответы на основе шаблонов и ассоциаций, которые он выучил из огромного количества текста, на котором он обучался. Он строит предложение слово за словом, выбирая наиболее вероятное, основываясь на своих методах глубокого обучения, в частности на архитектуре нейронной сети, называемой преобразователем, для обработки и генерации языка.

ChatGPT предварительно обучен на большом количестве текстовых данных, включая книги, веб-сайты и другой онлайн-контент. Когда пользователь вводит подсказку или вопрос, модель использует свое понимание языка и знание контекста подсказки для создания ответа. И, наконец, Он приходит к ответу, делая ряд предположений, что является одной из причин, по которым он может давать вам неправильные ответы.

Если ChatGPT обучен коллективному письму людей по всему миру и продолжает делать это по мере того, как он используется людьми, в модели также могут появиться те же предубеждения, которые существуют в реальном мире. В то же время этот новый и продвинутый чат-бот отлично объясняет сложные концепции, что делает его очень полезным и мощным инструментом для обучения, но важно не верить всему, что он говорит. ChatGPT, конечно, не всегда корректен, ну, по крайней мере, пока.

Обратите внимание, что эти опасности характерны не только для ChatGPT, но и для других моделей ИИ. Чтобы снизить эти риски, крайне важно, чтобы ChatGPT использовался ответственно и получал точные и надлежащие данные. Мы также должны понимать его ограничения.

Несмотря на эти риски, технология искусственного интеллекта, такая как ChatGPT, обладает огромным потенциалом для революции в различных отраслях, включая блокчейн. Использование ИИ в технологии блокчейна набирает обороты, особенно в таких областях, как обнаружение мошенничества, управление цепочками поставок и смарт-контракты. Новые боты, управляемые искусственным интеллектом, такие как ЦепьGPT, может помочь новым блокчейн-компаниям ускорить процесс разработки.

Однако важно найти баланс между инновациями и безопасностью. Разработчики, пользователи и регулирующие органы должны работать вместе над созданием руководящих принципов, обеспечивающих ответственную разработку и развертывание технологии искусственного интеллекта.

Согласно последним новостям, Италия стала первой западной страной, заблокировавшей расширенный чат-бот ChatGPT. Итальянский орган по защите данных выразил озабоченность по поводу конфиденциальности этой модели. Регулятор заявил, что запретит и расследует OpenAI «с немедленным вступлением в силу».

Microsoft потратила на это миллиарды долларов и в прошлом месяце добавила инструмент чата AI в Bing. Компания также заявила, что планирует внедрить версию этой технологии в свои приложения Office, включая Word, Excel, PowerPoint и Outlook.

В то же время более 1,000 экспертов, исследователей и сторонников искусственного интеллекта присоединились к призыву немедленно приостановить создание ИИ как минимум на шесть месяцев, поэтому возможности и опасности системы типа ГПТ-4 можно правильно изучить.

Требование изложено в открытом письме, подписанном крупными игроками в области ИИ, в том числе: Elon Musk, соучредитель OpenAI, исследовательской лаборатории, отвечающей за ChatGPT и GPT-4; Эмад Мостак, основатель лондонской компании Stability AI; и Стив Возняк, соучредитель Apple.

В открытом письме выражается обеспокоенность по поводу возможности контролировать то, что невозможно полностью понять:

«В последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке за разработку и развертывание все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми».

Призыв к немедленной паузе в создании ИИ демонстрирует необходимость изучения возможностей и опасностей таких систем, как ChatGPT и GPT-4. Поскольку технология ИИ продолжает развиваться и интегрироваться в нашу повседневную жизнь, решение проблем безопасности и обеспечение ответственной разработки и внедрения ИИ имеют решающее значение.

Растущие опасения по поводу безопасности ChatGPT. Подчеркните необходимость общественного просвещения и прозрачности в отношении рисков ИИ. -он-ай-риски/

Отметка времени:

Больше от Блокчейн-консультанты