独自のデータを使用して AI のプライバシー問題を軽減し、AI の信頼性を向上させる | IoT Now ニュースとレポート

独自のデータを使用して AI のプライバシー問題を軽減し、AI の信頼性を向上させる | IoT Now ニュースとレポート

ソースノード: 3068504

人間が手動で行うのは困難または不可能なパターンを検出して予測できる AI モデルにより、次のようなツールの潜在的な応用が可能になります。 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 ヘルスケア、金融、顧客サービス業界全体の規模は巨大です。

AI に関する組織の優先事項は、競争上の優位性の観点から生成 AI ツールがビジネスにもたらす機会を評価することであるはずですが、データ プライバシーの話題が最大の懸念事項となっています。 AI は偏った結果を生み出す可能性があるため、責任ある使用を管理するには慎重な検討が必要です。 

これらのモデルの潜在的な利点は計り知れませんが、組織は安全で確実な AI データ保護を備えた責任ある方法で AI を使用するための倫理的および実践的な考慮事項を慎重に検討する必要があります。 ChatGPT を使用して全体的なユーザー エクスペリエンスを最適化することで、組織はユーザー エクスペリエンスを向上させることができます。 AIの信頼性

AI のプライバシーに関する懸念 

他の多くの最先端テクノロジーと同様に、AI を自社のテクノロジー スタックに導入しようとしている人にとって、AI は間違いなくいくつかの疑問や課題を引き起こすでしょう。実際、ある調査によると、 進捗 企業と IT 幹部の 65% が現在、それぞれの組織内にデー​​タの偏りがあると考えており、78% が AI の導入が進むにつれてこの傾向が悪化すると回答していることを明らかにしました。 

おそらくプライバシーに関する最大の懸念は、民間企業のデータを公開および社内の AI プラットフォームと連携して使用することに関するものです。たとえば、これは機密の患者データや大企業の従業員の給与データを保存している医療機関である可能性があります。 

AI を最大限に効果的にするには、サンプルサイズの高品質な公的および/または非公開データが必要であり、医療記録を持つ医療会社など、機密データにアクセスできる組織は、AI ベースのソリューションを構築する際に競争上の優位性を得ることができます。何よりも、このような機密データを扱う組織は、関連する倫理的および規制上の要件を考慮する必要があります。 データプライバシー、公平性、説明可能性、透明性、堅牢性、アクセス。  

大規模言語モデル (LLM) は、言語翻訳、質問応答、要約、感情分析などのさまざまな自然言語処理タスクを実行するためにテキスト データでトレーニングされた強力な AI モデルです。これらのモデルは、人間の知能を模倣した方法で言語を分析し、人間の音声を処理、理解、生成できるように設計されています。 

AI利用時の個人データのリスク 

ただし、これらの複雑なモデルには倫理的および技術的な課題が伴い、データの正確性、著作権侵害、名誉毀損の可能性に対するリスクが生じる可能性があります。チャットボット AI を効果的に使用するには、次のような課題があります。 

  • 幻覚 – AI における幻覚とは、エラーだらけの回答をユーザーに報告することですが、これは非常に一般的なことです。 LLM が次の単語を予測する方法により、回答がもっともらしく聞こえますが、情報が不完全または誤っている可能性があります。たとえば、ユーザーがチャットボットに競合他社の平均収益を尋ねた場合、これらの数値は大幅に乖離する可能性があります。  
  • データの偏り – LLMも出展可能 バイアスこれは、客観的な現実ではなく、トレーニング データのバイアスを反映した結果を生成できることを意味します。たとえば、主に男性のデータセットでトレーニングされた言語モデルは、性別のトピックに関して偏った出力を生成する可能性があります。 
  • 推論/理解 – LLM は、より深い推論や複雑な概念の理解を必要とするタスクに関して支援を必要とする場合もあります。 LLM は、文化や歴史の微妙な理解を必要とする質問に答えられるようにトレーニングできます。効果的にトレーニングおよび監視されていない場合、モデルが固定観念を永続させたり、誤った情報を提供したりする可能性があります。 

これらに加えて、他のリスクには、モデルのメモリが古くなりがちなデータカットオフが含まれる可能性があります。もう 1 つの考えられる課題は、AI が応答を構築するために使用された推論を示すように効果的にトレーニングされていないため、LLM がどのように応答を生成したかを理解することです。 

セマンティック知識を使用して信頼できるデータを提供する 

技術チームは、ChatGPT でのプライベート データの使用に関する支援を求めています。精度と効率が向上したにもかかわらず、ユーザーはもちろんのこと、LLM も依然として回答の助けを必要とする場合があります。特にデータにはコンテキストや意味が欠けている可能性があるためです。強力で安全、透明性があり、管理された AI ナレッジ管理ソリューションがその答えです。セマンティック データ プラットフォームを使用すると、ユーザーはガバナンスを導入しながら精度と効率を向上させることができます。  

セマンティック データ プラットフォームからのセマンティック ナレッジと検証された ChatGPT の回答を組み合わせた回答を得ることで、LLM とユーザーはその結果に簡単にアクセスし、ソース コンテンツや取得した SME ナレッジと照らし合わせてファクト チェックできるようになります。 

これにより、AI ツールは構造化データと非構造化データを保存およびクエリしたり、直感的な GUI を介して対象分野の専門家(SME)のコンテンツをキャプチャしたりできるようになります。データ内で見つかった事実を抽出し、プライベート データにセマンティックな知識をタグ付けすることにより、ユーザーの質問や入力、および特定の ChatGPT の回答もこの知識でタグ付けできます。  

機密データを保護することで AI の真の可能性を引き出すことができます 

すべてのテクノロジーと同様に、LLM では、予期しない入力や状況に対する防御がさらに重要になります。これらの課題にうまく対処することで、当社のソリューションの信頼性が高まり、ユーザーの満足度も高まり、最終的にはソリューションの成功につながります。 

組織での AI の使用を検討する最初のステップとして、IT およびセキュリティの専門家は、組織とその顧客の成果を最適化するために機密データを活用しながら、機密データを保護する方法を探す必要があります。 

Matthieu Jonglez 氏、Progress のアプリケーションおよびデータ プラットフォームのテクノロジー担当副社長。Matthieu Jonglez 氏、Progress のアプリケーションおよびデータ プラットフォームのテクノロジー担当副社長。

Matthieu Jonglez による記事、テクノロジー - アプリケーションおよびデータ プラットフォーム担当副社長 進捗SS。

以下または X 経由でこの記事にコメントしてください: @IoTNow_

タイムスタンプ:

より多くの IoTの今