ИИ и безопасность: это сложно, но не обязательно | Новости и отчеты IoT Now

ИИ и безопасность: это сложно, но не обязательно | Новости и отчеты IoT Now

Исходный узел: 3071147

Популярность искусственного интеллекта растет, и эта тенденция будет продолжаться. Это поддерживается Gartner в котором говорится, что примерно 80% предприятий будут использовать генеративный искусственный интеллект (ГенАИ) интерфейсы или модели прикладного программирования (API) или модели к 2026 году. Однако ИИ — это широкий и повсеместный термин, и во многих случаях он охватывает целый ряд технологий. Тем не менее, ИИ представляет собой прорыв в способности по-разному обрабатывать логику, что привлекает внимание как предприятий, так и потребителей, которые сегодня экспериментируют с различными формами ИИ. В то же время эта технология привлекает аналогичное внимание со стороны субъектов угроз, которые понимают, что она может быть слабым местом в безопасности компании, а также может быть инструментом, который помогает компаниям выявлять эти слабости и устранять их.

Проблемы безопасности ИИ

Один из способов использования ИИ компаниями — это анализ больших наборов данных для выявления закономерностей и соответствующей последовательности данных. Это достигается за счет создания наборов табличных данных, которые обычно содержат ряды данных. Хотя это имеет значительные преимущества для компаний (от повышения эффективности до выявления закономерностей и аналитической информации), это также увеличивает риски безопасности, поскольку в случае взлома эти данные сортируются таким образом, чтобы их было легко использовать злоумышленникам.

Дальнейшая угроза развивается при использовании технологий большой языковой модели (LLM), которые устраняют барьеры безопасности, поскольку данные размещаются в открытом доступе, и любой, кто использует эту технологию, может наткнуться на нее и использовать ее. Поскольку LLM по сути является ботом, который не понимает деталей, он выдает наиболее вероятный ответ на основе вероятности, используя имеющуюся у него информацию. Таким образом, многие компании не позволяют сотрудникам помещать какие-либо данные компании в такие инструменты, как ChatGPT, чтобы обеспечить безопасность данных в пределах компании.

Преимущества безопасности ИИ

Хотя ИИ может представлять потенциальный риск для компаний, он также может быть частью решения. Поскольку ИИ обрабатывает информацию иначе, чем люди, он может иначе смотреть на проблемы и находить прорывные решения. Например, ИИ создает более совершенные алгоритмы и может решать математические задачи, с которыми люди боролись на протяжении многих лет. Таким образом, когда дело доходит до информационной безопасности, алгоритмы имеют решающее значение. ИИ, машинное обучение (ML) или подобная технология когнитивных вычислений, могли бы найти способ защитить данные.

Это настоящее преимущество ИИ, поскольку он может не только идентифицировать и сортировать огромные объемы информации, но и выявлять закономерности, позволяющие организациям видеть то, чего они раньше никогда не замечали. Это привносит совершенно новый элемент в информационную безопасность. Хотя ИИ будет использоваться злоумышленниками как инструмент для повышения эффективности взлома систем, он также будет использоваться как инструмент этичными хакерами, пытающимися выяснить, как улучшить безопасность, что будет очень полезно для бизнеса.

Проблемы сотрудников и безопасности

Сотрудники, которые видят преимущества ИИ в своей личной жизни, используют такие инструменты, как ChatGPT улучшить свою способность выполнять трудовые функции. В то же время эти сотрудники усложняют защиту данных. Компании должны знать, какую информацию сотрудники размещают на этих платформах, и связанные с этим угрозы.

Поскольку эти решения принесут пользу на рабочих местах, компании могут рассмотреть возможность размещения неконфиденциальных данных в системах, чтобы ограничить доступ к внутренним наборам данных и одновременно повысить эффективность всей организации. Однако организациям необходимо осознавать, что они не могут иметь и то, и другое, и данные, которые они помещают в такие системы, не останутся конфиденциальными. По этой причине компаниям необходимо будет пересмотреть свою политику информационной безопасности и определить, как защитить конфиденциальные данные, одновременно обеспечивая сотрудникам доступ к критически важным данным.

Не конфиденциальные, но полезные данные

Компании осознают ценность, которую ИИ может принести, одновременно добавляя риск безопасности в смесь. Чтобы получить выгоду от этой технологии, сохраняя при этом конфиденциальность данных, они изучают способы реализации анонимных данных с использованием псевдонимизации, например, которая заменяет идентифицирующую информацию псевдонимом или значением и не позволяет напрямую идентифицировать человека.

Еще один способ, с помощью которого компании могут защитить данные, — это использование генеративного искусственного интеллекта для синтетических данных. Например, если у компании есть набор данных о клиентах и ​​ей необходимо поделиться им с третьей стороной для анализа и понимания, они указывают на этот набор данных синтетическую модель генерации данных. Эта модель изучит все о наборе данных, выявит закономерности в информации, а затем создаст набор данных с вымышленными людьми, которые не представляют кого-либо в реальных данных, но позволяют получателю анализировать весь набор данных и предоставлять точную информацию. Это означает, что компании могут делиться ложной, но точной информацией, не раскрывая конфиденциальные или частные данные. Tего подход позволяет использовать огромные объемы информации моделями машинного обучения для аналитики и, в некоторых случаях, для тестирования данных для разработки.

Благодаря нескольким методам защиты данных, доступным сегодня компаниям, преимущества технологий искусственного интеллекта можно использовать с уверенностью в том, что личные данные останутся в безопасности. Это важно для предприятий, поскольку они ощущают реальную пользу, которую данные приносят для повышения эффективности, принятия решений и общего качества обслуживания клиентов.

Статья Клайда Уильямсона, главного архитектора безопасности, и Натана Веги, вице-президента по маркетингу и стратегии продуктов Protegrity.

Прокомментируйте эту статью ниже или через X: @IoTNow_

Отметка времени:

Больше от Интернет вещей сейчас