Использование собственных данных для смягчения проблем конфиденциальности ИИ и повышения доверия к ИИ | Новости и отчеты IoT Now

Использование собственных данных для смягчения проблем конфиденциальности ИИ и повышения доверия к ИИ | Новости и отчеты IoT Now

Исходный узел: 3068504

Поскольку модели искусственного интеллекта способны обнаруживать закономерности и делать прогнозы, которые человеку было бы трудно или невозможно сделать вручную, потенциальные применения таких инструментов, как ChatGPT в отраслях здравоохранения, финансов и обслуживания клиентов огромны.

Тем не менее, хотя приоритетами организаций в отношении ИИ должна быть оценка возможностей, которые генерирующие инструменты ИИ предлагают их бизнесу с точки зрения конкурентных преимуществ, тема конфиденциальности данных стала первоочередной проблемой. Управление ответственным использованием ИИ с его потенциалом получения предвзятых результатов требует тщательного рассмотрения. 

Хотя потенциальные преимущества этих моделей огромны, организациям следует тщательно изучить этические и практические соображения, чтобы использовать ИИ ответственным образом с безопасной и надежной защитой данных ИИ. Оптимизируя общий пользовательский опыт с помощью ChatGPT, организации могут улучшить Надежность ИИ

Проблемы конфиденциальности ИИ 

Как и многие другие передовые технологии, ИИ, несомненно, вызовет некоторые вопросы и проблемы у тех, кто хочет внедрить его в свои технологические стеки. Фактически, опрос, проведенный Прогресс выявили, что 65% предприятий и ИТ-руководителей в настоящее время считают, что в их организациях существует предвзятость данных, а 78% говорят, что ситуация будет ухудшаться по мере роста внедрения ИИ. 

Вероятно, самая большая проблема конфиденциальности связана с использованием данных частных компаний в тандеме с общедоступными и внутренними платформами искусственного интеллекта. Например, это может быть организация здравоохранения, хранящая конфиденциальные данные пациентов, или данные о заработной плате сотрудников крупной корпорации. 

Чтобы ИИ был наиболее эффективным, вам нужна большая выборка высококачественных общедоступных и/или частных данных, а организации, имеющие доступ к конфиденциальным данным, такие как медицинские компании с медицинскими записями, имеют конкурентное преимущество при создании решений на основе ИИ. Прежде всего, эти организации, располагающие такими конфиденциальными данными, должны учитывать этические и нормативные требования, касающиеся конфиденциальность данныхсправедливость, объяснимость, прозрачность, надежность и доступность.  

Большие языковые модели (LLM) — это мощные модели искусственного интеллекта, обученные на текстовых данных для выполнения различных задач по обработке естественного языка, включая языковой перевод, ответы на вопросы, обобщение и анализ настроений. Эти модели предназначены для анализа языка таким образом, чтобы имитировать человеческий интеллект, позволяя им обрабатывать, понимать и генерировать человеческую речь. 

Риски для частных данных при использовании ИИ 

Однако с этими сложными моделями возникают этические и технические проблемы, которые могут создавать риски для точности данных, нарушения авторских прав и потенциальных дел о клевете. Некоторые из проблем эффективного использования ИИ чат-ботов включают в себя: 

  • Галлюцинации – В ИИ галлюцинация – это когда он сообщает пользователю ответы с ошибками, и это слишком распространено. То, как LLM предсказывает следующее слово, делает ответы правдоподобными, в то время как информация может быть неполной или ложной. Например, если пользователь спрашивает чат-бота о среднем доходе конкурента, эти цифры могут быть неверными.  
  • Смещение данных – LLM также могут демонстрировать предубежденияЭто означает, что они могут давать результаты, отражающие предвзятость обучающих данных, а не объективную реальность. Например, языковая модель, обученная на наборе данных преимущественно мужского пола, может давать предвзятые результаты в отношении гендерных тем. 
  • Рассуждение/понимание – LLM также может нуждаться в помощи с задачами, требующими более глубокого рассуждения или понимания сложных концепций. LLM можно обучить отвечать на вопросы, требующие тонкого понимания культуры или истории. Модели могут увековечивать стереотипы или предоставлять дезинформацию, если их не обучать и не контролировать эффективно. 

В дополнение к этим, другие риски могут включать в себя обрезание данных, когда память модели имеет тенденцию устаревать. Другая возможная проблема — понять, как LLM генерирует свой ответ, поскольку ИИ не обучен эффективно демонстрировать свои рассуждения, используемые для построения ответа. 

Использование семантических знаний для предоставления достоверных данных 

Техническим командам нужна помощь в использовании личных данных для ChatGPT. Несмотря на повышение точности и эффективности, LLM, не говоря уже об их пользователях, по-прежнему может нуждаться в помощи с ответами. Тем более, что данным может не хватать контекста и значения. Ответом является мощное, безопасное, прозрачное и управляемое решение для управления знаниями в области искусственного интеллекта. Благодаря платформе семантических данных пользователи могут повысить точность и эффективность при внедрении управления.  

Получив ответ, который представляет собой комбинацию ответа ChatGPT, подтвержденного семантическими знаниями из платформы семантических данных, объединенные результаты позволят LLM и пользователям легко получать доступ и проверять результаты на соответствие исходному контенту и полученным знаниям SME. 

Это позволяет инструменту искусственного интеллекта хранить и запрашивать структурированные и неструктурированные данные, а также собирать контент экспертов в предметной области (SME) через интуитивно понятный графический интерфейс. Путем извлечения фактов, обнаруженных в данных, и пометки частных данных семантическими знаниями, вопросы пользователей или входные данные, а также конкретные ответы ChatGPT также могут быть помечены этими знаниями.  

Защита конфиденциальных данных может раскрыть истинный потенциал ИИ 

Как и в случае со всеми технологиями, защита от непредвиденных факторов или ситуаций в рамках LLM еще более важна. При успешном решении этих задач надежность наших решений будет возрастать, а удовлетворенность пользователей в конечном итоге приведет к успеху решения. 

В качестве первого шага в изучении использования ИИ в своей организации специалисты по ИТ и безопасности должны найти способы защитить конфиденциальные данные, одновременно используя их для оптимизации результатов для своей организации и ее клиентов. 

Матье Жонглез, вице-президент по технологиям, платформам приложений и данных в компании Progress.Матье Жонглез, вице-президент по технологиям, платформам приложений и данных в компании Progress.

Статья Матье Жонглеза, вице-президента по технологиям – платформам приложений и данных на прогресспесчаники

Прокомментируйте эту статью ниже или через X: @IoTNow_

Отметка времени:

Больше от Интернет вещей сейчас