Акт балансирования: ценность человеческого опыта в эпоху генеративного искусственного интеллекта - DATAVERSITY

Акт балансирования: ценность человеческого опыта в эпоху генеративного искусственного интеллекта – ДАННЫЕ

Исходный узел: 3052574

Когда дело касается безопасности, люди считаются самым слабым звеном на предприятии. Это справедливо, поскольку свыше 95% инцидентов кибербезопасности вызваны человеческими ошибками. Люди непостоянны, подвержены ошибкам и непредсказуемы, что делает их легкой мишенью для киберпреступников, стремящихся получить доступ к системам организаций.  

Это делает нашу зависимость от машин еще более важной. До этого момента мы могли доверять машинам, которые работали с кодом как с правдой. Даже несмотря на то, что они могут быть скомпрометированы из-за уязвимостей в коде или социальных недостатков людей-операторов, проблемы обычно находят четкое решение. 

Однако с появлением генеративный ИИ (ГенАИ) и большие языковые модели (LLM), организации теперь сталкиваются с атаками социальной инженерии, которые обманывают ИИ, заставляя его делать то, для чего он не был предназначен. По мере того, как мы будем перекладывать все больше на ИИ, будет интересно увидеть, как эти новые модели атак будут реализованы.

Перед лицом этой дилеммы людям снова предстоит ориентироваться в этом сложном и развивающемся ландшафте безопасности ИИ. Это требует от директоров по информационной безопасности четко сообщать о преимуществах и недостатках ИИ, а также учитывать длинный список соображений безопасности, связанных с продуктами и возможностями на базе ИИ. 

Спешное внедрение генеративного искусственного интеллекта порождает новые проблемы кибербезопасности

Начнем с того, что распространенной проблемой, когда речь идет о GenAI и LLM, является чрезмерная зависимость от контента, создаваемого ИИ. Доверие к контенту, созданному ИИ, без проверки или проверки на вводящую в заблуждение или дезинформацию без участия человека или контроля может привести к распространению ошибочных данных, которые влияют на принятие неверных решений и снижение критического мышления. LLM, как известно, галлюцинируют, поэтому некоторая дезинформация может быть даже не результатом злого умысла.

Аналогичным образом, количество небезопасного кода, которое появляется после развития GenAI, также станет серьезной проблемой для директоров по информационной безопасности, если не будет заранее предвидено. Известно, что механизмы искусственного интеллекта пишут ошибочный код с уязвимостями безопасности. Без надлежащего человеческого контроля GenAI дает возможность людям, не имеющим надлежащей технической базы, создавать код. Это приводит к увеличению риска безопасности на протяжении всего жизненного цикла разработки программного обеспечения для организаций, неправильно использующих эти инструменты.

Утечка данных — еще одна распространенная проблема. В некоторых случаях злоумышленники могут использовать быстрое внедрение для извлечения конфиденциальной информации, которую модель ИИ узнала от другого пользователя. Во многих случаях это может быть безвредно, но злонамеренное использование, конечно, не исключено. Злоумышленники могут намеренно проверять инструмент искусственного интеллекта с помощью тщательно составленных подсказок, стремясь извлечь конфиденциальную информацию, которую инструмент запомнил, что приведет к утечке конфиденциальной информации.

ИИ может увеличить некоторые пробелы в кибербезопасности, но имеет значительный потенциал для устранения других

Наконец, понятно, что распространение GenAI и LLM приведет к некоторому уменьшению поверхности атаки в нашей отрасли по нескольким причинам. Во-первых, способность генерировать код с помощью GenAI снижает планку того, кто может быть инженером-программистом, что приводит к более слабому коду и еще более слабым стандартам безопасности. Во-вторых, GenAI требует огромных объемов данных, а это означает, что масштабы и последствия утечек данных будут расти в геометрической прогрессии. В-третьих, как и в случае с любой новой технологией, разработчики могут не до конца осознавать, каким образом их реализация может быть использована или нарушена. 

Тем не менее, важно принять сбалансированную точку зрения. Хотя упрощение генерации кода с помощью Gen AI может вызвать обеспокоенность, оно также привносит положительные аспекты в среду кибербезопасности. Например, он может эффективно выявлять уязвимости безопасности, такие как межсайтовый скриптинг (XSS) или внедрение SQL. Эта двойственная природа подчеркивает важность детального понимания. Вместо того, чтобы рассматривать ИИ исключительно как вред, он подчеркивает взаимодополняющую связь между искусственным интеллектом и участием человека в кибербезопасности. Директора по информационной безопасности должны осознавать связанные с этим риски, связанные с GenAI и LLM, одновременно изучая человекоориентированные подходы к внедрению GenAI и укреплению своих организаций.

Люди подхватывают то, что оставляет ИИ

Перед директорами по информационной безопасности не просто стоит задача разгадать сложности GenAI. Они должны проложить путь вперед для своей организации и продемонстрировать руководству, как их организация может продолжать процветать в мире, где доминирует ГенИИ. 

Хотя конечные пользователи часто несут ответственность за многие уязвимости безопасности, нет лучшей защиты от киберпреступности, чем хорошо обученный и заботящийся о безопасности человек. Независимо от того, какие инструменты обнаружения угроз имеются в организации, заменить человека за экраном, когда дело доходит до тестирования программного обеспечения, просто невозможно. 

Организации могут опередить киберпреступников, используя возможности этический хакинг. Хотя некоторые не решаются приглашать хакеров в свою сеть из-за устаревших заблуждений, эти законопослушные эксперты по кибербезопасности лучше всего подходят для борьбы с злоумышленниками, поскольку, в отличие от ИИ, они могут проникнуть в головы киберзлоумышленников.

Фактически хакеры уже дополняют автоматизированные инструменты борьбы с киберпреступниками, 92% от этические хакеры говоря, что они могут найти уязвимости, которые не могут найти сканеры. Навсегда приоткрыв завесу о хакерстве, бизнес-лидеры смогут использовать этический хакерский подход и человеческую поддержку, чтобы обеспечить более эффективный баланс между искусственным интеллектом и людьми-экспертами в борьбе с современной киберпреступностью. Наши недавние Отчет о хакерской безопасности подчеркивает это: 91% наших клиентов говорят, что хакеры предоставляют более эффективные и ценные отчеты об уязвимостях, чем ИИ или решения для сканирования. Поскольку ИИ продолжает формировать наше будущее, сообщество этических хакеров будет продолжать обеспечивать его безопасную интеграцию.

Сочетание автоматизации и сети высококвалифицированных хакеров означает, что компании могут выявлять критические недостатки приложений до того, как они будут использованы. Когда организации эффективно сочетают автоматизированные инструменты безопасности с этическим хакерством, они закрывают бреши в постоянно развивающейся сфере цифровых атак. 

Это связано с тем, что люди и ИИ могут работать вместе, чтобы повысить производительность службы безопасности: 

  1. Наземная разведка: Современные организации могут создать обширную и сложную ИТ-инфраструктуру, включающую разнообразное как авторизованное, так и несанкционированное оборудование и программное обеспечение. Разработка комплексного индекса ИТ-активов, таких как программное обеспечение и оборудование, важна для уменьшения уязвимостей, оптимизации управления исправлениями и обеспечения соответствия отраслевым требованиям. Это также помогает выявить и проанализировать точки, через которые злоумышленник может нацелиться на организацию.
  2. Непрерывные оценки: Выходя за рамки безопасности на определенный момент времени, организации могут объединить изобретательность экспертов по человеческой безопасности с информацией о местах атак в реальном времени, чтобы обеспечить непрерывное тестирование цифрового ландшафта. Непрерывное тестирование на проникновение позволяет ИТ-командам просматривать результаты постоянного моделирования, которые показывают, как будет выглядеть нарушение в текущей среде и потенциальные слабые места, к которым команды могут адаптироваться в режиме реального времени.
  3. Улучшения процесса: Доверенные хакеры могут передать командам безопасности ценную информацию об уязвимостях и активах, чтобы помочь улучшить процессы.

Заключение

Поскольку генеративный ИИ продолжает развиваться такими быстрыми темпами, директора по информационной безопасности должны использовать свое понимание того, как люди могут сотрудничать, чтобы повысить безопасность ИИ и заручиться поддержкой своего совета директоров и руководства. В результате организации могут иметь достаточный персонал и ресурсы для эффективного решения этих проблем. Достижение правильного баланса между быстрым внедрением искусственного интеллекта и комплексной безопасностью посредством сотрудничества с этическими хакерами усиливает аргументы в пользу инвестирования в соответствующие решения на базе искусственного интеллекта.

Отметка времени:

Больше от ДАТАВЕРСИЯ