자체 데이터를 사용하여 AI 개인 정보 보호 문제를 완화하고 AI 신뢰를 향상 | IoT Now 뉴스 및 보고서

자체 데이터를 사용하여 AI 개인 정보 보호 문제를 완화하고 AI 신뢰를 향상 | IoT Now 뉴스 및 보고서

소스 노드 : 3068504

인간이 수동으로 수행하기 어렵거나 불가능한 패턴을 감지하고 예측할 수 있는 AI 모델을 사용하면 다음과 같은 도구의 잠재적인 응용이 가능해집니다. ChatGPT 의료, 금융, 고객 서비스 산업 전반에 걸쳐 그 규모가 엄청납니다.

그러나 AI에 대한 조직의 우선순위는 생성적 AI 도구가 경쟁 우위 측면에서 비즈니스에 제공하는 기회를 평가하는 것이어야 하지만, 데이터 개인 정보 보호라는 주제가 주요 관심사가 되었습니다. 편향된 결과를 낳을 가능성이 있는 AI의 책임 있는 사용을 관리하려면 신중한 고려가 필요합니다. 

이러한 모델의 잠재적 이점은 엄청나지만, 조직은 안전하고 보안이 유지되는 AI 데이터 보호를 통해 책임감 있는 방식으로 AI를 사용하기 위한 윤리적, 실무적 고려 사항을 주의 깊게 검토해야 합니다. ChatGPT를 통해 전반적인 사용자 경험을 최적화함으로써 조직은 AI 신뢰성

AI 개인 정보 보호 문제 

다른 많은 최첨단 기술과 마찬가지로 AI도 기술 스택에 AI를 배포하려는 사람들에게 의심할 여지 없이 몇 가지 질문과 과제를 제기할 것입니다. 실제로 한 조사에 따르면 진행 현재 기업 및 IT 임원의 65%가 각자의 조직에 데이터 편향이 있다고 믿고 있으며 78%는 AI 채택이 증가함에 따라 이러한 상황이 더욱 악화될 것이라고 답했습니다. 

아마도 가장 큰 개인 정보 보호 문제는 공개된 내부 AI 플랫폼과 함께 민간 회사 데이터를 사용하는 것입니다. 예를 들어 기밀 환자 데이터나 대기업 직원 급여 데이터를 저장하는 의료 기관이 될 수 있습니다. 

AI가 가장 효과적이려면 고품질 공공 및/또는 민간 데이터의 대규모 표본 크기가 필요하며 의료 기록이 있는 의료 회사와 같이 기밀 데이터에 액세스할 수 있는 조직은 AI 기반 솔루션을 구축할 때 경쟁 우위를 갖습니다. 무엇보다도 민감한 데이터를 보유한 조직은 다음과 같은 윤리적 및 규제적 요구 사항을 고려해야 합니다. 데이터 프라이버시, 공정성, 설명 가능성, 투명성, 견고성 및 접근성.  

LLM(대형 언어 모델)은 언어 번역, 질문 답변, 요약, 감정 분석을 포함한 다양한 자연어 처리 작업을 수행하기 위해 텍스트 데이터에 대해 훈련된 강력한 AI 모델입니다. 이러한 모델은 인간의 지능을 모방하는 방식으로 언어를 분석하여 인간의 음성을 처리, 이해 및 생성할 수 있도록 설계되었습니다. 

AI 사용 시 개인 데이터에 대한 위험 

그러나 이러한 복잡한 모델에는 데이터 정확성, 저작권 침해 및 잠재적인 명예훼손 사건에 대한 위험을 초래할 수 있는 윤리적, 기술적 문제가 따릅니다. 챗봇 AI를 효과적으로 사용하기 위한 몇 가지 과제는 다음과 같습니다. 

  • 환각 – AI에서 환각은 오류로 가득 찬 답변을 사용자에게 보고할 때 발생하며 이는 모두 너무 일반적입니다. LLM이 다음 단어를 예측하는 방식은 답변을 그럴듯하게 만드는 반면 정보는 불완전하거나 거짓일 수 있습니다. 예를 들어, 사용자가 챗봇에게 경쟁사의 평균 수익을 묻는 경우 이 수치는 전혀 다를 수 있습니다.  
  • 데이터 편향 – LLM도 전시할 수 있습니다. 편견이는 객관적인 현실보다는 훈련 데이터의 편향을 반영하는 결과를 생성할 수 있음을 의미합니다. 예를 들어, 주로 남성 데이터세트로 훈련된 언어 모델은 성별에 따른 주제와 관련하여 편향된 출력을 생성할 수 있습니다. 
  • 추론/이해 – LLM은 복잡한 개념에 대한 더 깊은 추론이나 이해가 필요한 작업에 도움이 필요할 수도 있습니다. LLM은 문화나 역사에 대한 미묘한 이해가 필요한 질문에 답하도록 교육받을 수 있습니다. 모델이 효과적으로 훈련 및 모니터링되지 않으면 고정관념을 지속시키거나 잘못된 정보를 제공할 수 있습니다. 

이 외에도 모델의 메모리가 오래되는 경향이 있는 데이터 컷오프(Data Cutoff)가 다른 위험에 포함될 수 있습니다. 또 다른 가능한 과제는 AI가 응답을 구성하는 데 사용된 추론을 보여주기 위해 효과적으로 훈련되지 않았기 때문에 LLM이 어떻게 응답을 생성했는지 이해하는 것입니다. 

의미론적 지식을 사용하여 신뢰할 수 있는 데이터 제공 

기술팀은 ChatGPT의 개인 데이터 사용에 대한 지원을 찾고 있습니다. 정확성과 효율성이 향상되었음에도 불구하고 LLM은 사용자는 말할 것도 없고 여전히 답변에 대한 도움이 필요할 수 있습니다. 특히 데이터에는 맥락과 의미가 부족할 수 있기 때문입니다. 강력하고 안전하며 투명하고 관리되는 AI 지식 관리 솔루션이 답입니다. 의미론적 데이터 플랫폼을 통해 사용자는 거버넌스를 도입하는 동시에 정확성과 효율성을 높일 수 있습니다.  

의미론적 데이터 플랫폼의 의미론적 지식으로 검증된 ChatGPT 답변의 조합인 답변을 달성함으로써 결합된 결과를 통해 LLM과 사용자는 쉽게 액세스하고 소스 콘텐츠 및 캡처된 SME 지식에 대한 결과를 확인할 수 있습니다. 

이를 통해 AI 도구는 구조화된 데이터와 구조화되지 않은 데이터를 저장 및 쿼리할 수 있을 뿐만 아니라 직관적인 GUI를 통해 주제 전문가(SME) 콘텐츠를 캡처할 수 있습니다. 데이터 내에서 발견된 사실을 추출하고 의미론적 지식으로 개인 데이터에 태그를 지정함으로써 사용자 질문이나 입력 및 특정 ChatGPT 답변에도 이 지식으로 태그를 지정할 수 있습니다.  

민감한 데이터를 보호하면 AI의 진정한 잠재력을 발휘할 수 있습니다 

모든 기술과 마찬가지로 LLM에서는 예상치 못한 입력이나 상황을 방지하는 것이 더욱 중요합니다. 이러한 과제를 성공적으로 해결하면 솔루션의 신뢰성이 향상되고 사용자 만족도가 높아져 궁극적으로 솔루션의 성공으로 이어질 것입니다. 

조직에서 AI를 활용하는 방법을 모색하는 첫 번째 단계로 IT 및 보안 전문가는 중요한 데이터를 보호하는 동시에 이를 활용하여 조직과 고객을 위한 결과를 최적화하는 방법을 찾아야 합니다. 

Progress의 기술 부문 애플리케이션 및 데이터 플랫폼 부사장인 Matthieu Jonglez.Progress의 기술 부문 애플리케이션 및 데이터 플랫폼 부사장인 Matthieu Jonglez.

기술 – 애플리케이션 및 데이터 플랫폼 부사장인 Matthieu Jonglez의 기사 진전ㅅ.

아래 또는 X를 통해 이 기사에 댓글을 달아주세요. @IoTNow_

타임 스탬프 :

더보기 IoT 나우