Граймс разделит прибыль на 50% за песни с искусственным интеллектом, используя ее голос

Граймс разделит прибыль на 50% за песни с искусственным интеллектом, используя ее голос

Исходный узел: 2609654

Технический предприниматель Уэйн Чанг утверждает, что он разработал инструмент искусственного интеллекта, LLM Shield, который предотвращает чат-боты и большие языковые модели (LLM), такие как ChatGPT от получения секретов компании. В последнее время использование инструментов ИИ растет, что вызывает опасения, что компании могут быть уязвимы для утечек данных и судебных исков.

Согласно докладу Киберхейвен, по оценкам, 2.3% работников вводят конфиденциальную информацию о компании в ChatGPT, а 11% данных, вставленных в чат-бот, являются конфиденциальными.

В результате многие предприятия, включая JP Morgan Chase & Co. , по имеющимся данным заблокировал доступ сотрудников к инструменту.

Читайте также: Офисы Metaverse возвращаются?

LLM Shield предназначен для защиты компаний и правительств от загрузки конфиденциальных данных в инструменты на базе ИИ, такие как ChatGPT и Bard.

Чанг сказал Fox Business, что, когда в ноябре на рынок был выпущен OpenAI ChatGPT, он увидел, насколько мощным он будет, и что он сопряжен с «большими, большими рисками».

«Все будет обостряться довольно быстро — это и позитив, и негатив», — сказал он.

«Я сосредоточен на том, чтобы убедиться, что мы можем направить ИИ в положительном направлении и максимально избежать недостатков».

Технологии для управления технологиями

Выпущенный только на прошлой неделе, LLM Shield оповещает организации каждый раз, когда предпринимается попытка загрузить конфиденциальную информацию. Согласно Fox Business, администраторы могут устанавливать ограничения для типов данных, которые компания хочет защитить.

Любая попытка загрузить такую ​​информацию побудит LLM Shield предупредить пользователей о том, что они собираются отправить конфиденциальные данные, и скрыть детали, чтобы содержимое было полезным, но нечитаемым для людей.

Ожидается, что LLM Shield продолжит становиться умнее, как и инструменты искусственного интеллекта, чьи возможности он призван ограничивать. Он также обновляется как спам-фильтр, поэтому, когда на рынке появляется больше ботов, он автоматически обновляется для усиления защиты.

По словам Чанга, планируется выпустить персональную версию, которую отдельные лица смогут загрузить для домашнего использования.

Утечки данных беспокоят компании

В этом году произошел бум использования инструментов ИИ в бизнесе, и вполне вероятно, что мы будем оглядываться на 2023 год как на год, когда революция ИИ началась всерьез.

Однако приток этих инструментов также вызвал опасения, что работники могут намеренно или случайно передать конфиденциальную информацию инструментам на основе ИИ, таким как ChatGPT.

Риск уже есть. Samsung недавно произошла серия утечек данных, когда ее сотрудники якобы вставили исходный код в новых ботов, которые потенциально могли раскрыть конфиденциальную информацию.

Все чаще работодатели нервничать о том, как их сотрудники могут использовать инструменты ИИ на работе. Некоторые предприятия уже запретили использование ChatGPT на работе, хотя сотрудники все еще находят способ обойти ограничения.

В просочившейся записке Walmart предупредил сотрудников, чтобы они не делились конфиденциальной информацией с ChatGPT. Группа заявила, что ранее заблокировала чат-бота из-за «деятельности, которая представляла риск для нашей компании».

Amazon также предупредил своих сотрудников о той же проблеме. Его корпоративный юрист сказал сотрудникам, что компания уже видела случаи ответов ChatGPT, которые были похожи на внутренний Амазон поле.

Подлые сотрудники

Как и в странах, где ChatGPT запрещен, но все еще используется — Китай и в некоторых частях Африки, например, сотрудники не были удержаны от использования инструмента на базе ИИ в своих организациях.

A Обзор аквариума выпущенный в феврале, показал, что почти 70% сотрудников используют ChatGPT на работе без ведома своего начальства.

Генеральный директор Cyberhaven Говард Тинг сказал Axios, что сотрудники всегда находили способы обойти запреты корпоративной сети, блокирующие доступ к чат-ботам.

Он сказал, что некоторые компании считали, что сотрудники не имели доступа к чат-боту, пока его фирма не сообщила им об обратном.

«Пользователи могут использовать прокси, чтобы обойти многие из этих сетевых инструментов безопасности», — сказал он.

Отметка времени:

Больше от МетаНьюс