人間が手動で行うのは困難または不可能なパターンを検出して予測できる AI モデルにより、次のようなツールの潜在的な応用が可能になります。 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 ヘルスケア、金融、顧客サービス業界全体の規模は巨大です。
AI に関する組織の優先事項は、競争上の優位性の観点から生成 AI ツールがビジネスにもたらす機会を評価することであるはずですが、データ プライバシーの話題が最大の懸念事項となっています。 AI は偏った結果を生み出す可能性があるため、責任ある使用を管理するには慎重な検討が必要です。
これらのモデルの潜在的な利点は計り知れませんが、組織は安全で確実な AI データ保護を備えた責任ある方法で AI を使用するための倫理的および実践的な考慮事項を慎重に検討する必要があります。 ChatGPT を使用して全体的なユーザー エクスペリエンスを最適化することで、組織はユーザー エクスペリエンスを向上させることができます。 AIの信頼性.
AI のプライバシーに関する懸念
他の多くの最先端テクノロジーと同様に、AI を自社のテクノロジー スタックに導入しようとしている人にとって、AI は間違いなくいくつかの疑問や課題を引き起こすでしょう。実際、ある調査によると、 進捗 企業と IT 幹部の 65% が現在、それぞれの組織内にデータの偏りがあると考えており、78% が AI の導入が進むにつれてこの傾向が悪化すると回答していることを明らかにしました。
おそらくプライバシーに関する最大の懸念は、民間企業のデータを公開および社内の AI プラットフォームと連携して使用することに関するものです。たとえば、これは機密の患者データや大企業の従業員の給与データを保存している医療機関である可能性があります。
AI を最大限に効果的にするには、サンプルサイズの高品質な公的および/または非公開データが必要であり、医療記録を持つ医療会社など、機密データにアクセスできる組織は、AI ベースのソリューションを構築する際に競争上の優位性を得ることができます。何よりも、このような機密データを扱う組織は、関連する倫理的および規制上の要件を考慮する必要があります。 データプライバシー、公平性、説明可能性、透明性、堅牢性、アクセス。
大規模言語モデル (LLM) は、言語翻訳、質問応答、要約、感情分析などのさまざまな自然言語処理タスクを実行するためにテキスト データでトレーニングされた強力な AI モデルです。これらのモデルは、人間の知能を模倣した方法で言語を分析し、人間の音声を処理、理解、生成できるように設計されています。
AI利用時の個人データのリスク
ただし、これらの複雑なモデルには倫理的および技術的な課題が伴い、データの正確性、著作権侵害、名誉毀損の可能性に対するリスクが生じる可能性があります。チャットボット AI を効果的に使用するには、次のような課題があります。
- 幻覚 – AI における幻覚とは、エラーだらけの回答をユーザーに報告することですが、これは非常に一般的なことです。 LLM が次の単語を予測する方法により、回答がもっともらしく聞こえますが、情報が不完全または誤っている可能性があります。たとえば、ユーザーがチャットボットに競合他社の平均収益を尋ねた場合、これらの数値は大幅に乖離する可能性があります。
- データの偏り – LLMも出展可能 バイアスこれは、客観的な現実ではなく、トレーニング データのバイアスを反映した結果を生成できることを意味します。たとえば、主に男性のデータセットでトレーニングされた言語モデルは、性別のトピックに関して偏った出力を生成する可能性があります。
- 推論/理解 – LLM は、より深い推論や複雑な概念の理解を必要とするタスクに関して支援を必要とする場合もあります。 LLM は、文化や歴史の微妙な理解を必要とする質問に答えられるようにトレーニングできます。効果的にトレーニングおよび監視されていない場合、モデルが固定観念を永続させたり、誤った情報を提供したりする可能性があります。
これらに加えて、他のリスクには、モデルのメモリが古くなりがちなデータカットオフが含まれる可能性があります。もう 1 つの考えられる課題は、AI が応答を構築するために使用された推論を示すように効果的にトレーニングされていないため、LLM がどのように応答を生成したかを理解することです。
セマンティック知識を使用して信頼できるデータを提供する
技術チームは、ChatGPT でのプライベート データの使用に関する支援を求めています。精度と効率が向上したにもかかわらず、ユーザーはもちろんのこと、LLM も依然として回答の助けを必要とする場合があります。特にデータにはコンテキストや意味が欠けている可能性があるためです。強力で安全、透明性があり、管理された AI ナレッジ管理ソリューションがその答えです。セマンティック データ プラットフォームを使用すると、ユーザーはガバナンスを導入しながら精度と効率を向上させることができます。
セマンティック データ プラットフォームからのセマンティック ナレッジと検証された ChatGPT の回答を組み合わせた回答を得ることで、LLM とユーザーはその結果に簡単にアクセスし、ソース コンテンツや取得した SME ナレッジと照らし合わせてファクト チェックできるようになります。
これにより、AI ツールは構造化データと非構造化データを保存およびクエリしたり、直感的な GUI を介して対象分野の専門家(SME)のコンテンツをキャプチャしたりできるようになります。データ内で見つかった事実を抽出し、プライベート データにセマンティックな知識をタグ付けすることにより、ユーザーの質問や入力、および特定の ChatGPT の回答もこの知識でタグ付けできます。
機密データを保護することで AI の真の可能性を引き出すことができます
すべてのテクノロジーと同様に、LLM では、予期しない入力や状況に対する防御がさらに重要になります。これらの課題にうまく対処することで、当社のソリューションの信頼性が高まり、ユーザーの満足度も高まり、最終的にはソリューションの成功につながります。
組織での AI の使用を検討する最初のステップとして、IT およびセキュリティの専門家は、組織とその顧客の成果を最適化するために機密データを活用しながら、機密データを保護する方法を探す必要があります。
Matthieu Jonglez による記事、テクノロジー - アプリケーションおよびデータ プラットフォーム担当副社長 進捗SS。
以下または X 経由でこの記事にコメントしてください: @IoTNow_
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- PlatoData.Network 垂直生成 Ai。 自分自身に力を与えましょう。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- プラトンESG。 カーボン、 クリーンテック、 エネルギー、 環境、 太陽、 廃棄物管理。 こちらからアクセスしてください。
- プラトンヘルス。 バイオテクノロジーと臨床試験のインテリジェンス。 こちらからアクセスしてください。
- 情報源: https://www.iot-now.com/2024/01/18/141953-using-your-own-data-to-mitigate-ai-privacy-issues-and-improve-ai-trust/
- :持っている
- :は
- :not
- 195
- 200
- a
- できる
- 上記の.
- アクセス
- 精度
- 達成する
- 越えて
- 添加
- アドレッシング
- 養子縁組
- 利点
- に対して
- AI
- AIの採用
- AIデータ
- AIモデル
- すべて
- 許す
- 許可
- ことができます
- 沿って
- また
- an
- 分析する
- 分析
- および
- 別の
- 回答
- 回答
- 申し込み
- です
- 周りに
- 記事
- AS
- 評価する
- 援助
- At
- 平均
- BE
- になる
- 信じる
- 以下
- 利点
- バイアス
- 偏った
- バイアス
- 最大の
- 建物
- ビジネス
- ビジネス
- by
- 缶
- キャプチャー
- 捕捉した
- 注意深い
- 慎重に
- 例
- 挑戦する
- 課題
- チャットボット
- AI言語モデルを活用してコードのデバッグからデータの異常検出まで、
- チェック
- 組み合わせ
- 組み合わせた
- 来ます
- コマンドと
- 企業
- 会社
- 競争力のある
- 競合他社
- 複雑な
- コンセプト
- 懸念
- 検討
- 考慮
- 検討事項
- 構築する
- コンテンツ
- コンテキスト
- 著作権
- 著作権侵害
- 株式会社
- 可能性
- 文化
- 現在
- 顧客
- 顧客サービス
- Customers
- 最先端
- 最先端のテクノロジー
- データ
- データバイアス
- データプライバシー
- データ保護
- 日付
- より深い
- 配信する
- 展開します
- 設計
- にもかかわらず
- 検出
- 難しい
- do
- 簡単に
- 効果的な
- 効果的に
- 効率
- 従業員
- 特に
- エーテル(ETH)
- 倫理的な
- さらに
- 調べる
- 例
- 幹部
- 展示
- 体験
- エキスパート
- 説明可能
- 探る
- 向い
- 実際
- ファクトチェック
- 事実
- 公平
- false
- ファイナンス
- 名
- 発見
- から
- 生成する
- 生成された
- 生々しい
- 生成AI
- ガバナンス
- 支配
- 持ってる
- ヘルスケア
- 助けます
- 高品質
- history
- 認定条件
- HTTPS
- 巨大な
- 人間
- 人間の知性
- if
- 計り知れない
- 重要
- 不可能
- 改善します
- in
- include
- 含めて
- 増える
- 増加
- 産業
- 情報
- 侵害
- 入力
- インテリジェンス
- 内部
- 導入
- 直観的な
- IOT
- 問題
- IT
- ITS
- 知識
- データ管理
- 欠如
- 言語
- 大
- 主要な
- 活用
- 見て
- 探して
- make
- 作る
- 管理
- 管理ソリューション
- 管理する
- 手動で
- 多くの
- 問題
- 最大幅
- 五月..
- 意味
- 手段
- 医療の
- メモリ
- 言及
- かもしれない
- 誤報
- 軽減する
- モデル
- 監視対象
- 他には?
- 最も
- しなければなりません
- ナチュラル
- 自然言語
- 自然言語処理
- 必要
- ニーズ
- ニュース
- 次の
- 今
- 番号
- 客観
- of
- オフ
- 提供
- on
- 機会
- 最適化する
- 最適化
- or
- 組織
- 組織的な
- その他
- 私たちの
- でる
- 成果
- 出力
- 全体
- 自分の
- 患者
- 患者データ
- パターン
- 給与
- 実行する
- プラットフォーム
- プラットフォーム
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- もっともらしい
- 可能
- 潜在的な
- 強力な
- 実用的
- 予測する
- 予測
- 主に
- 素数
- プライバシー
- プライベート
- プロセス
- 処理
- 作り出す
- 進捗
- PROS
- 守る
- 保護
- 提供します
- 公共
- 公然と
- 質問
- 質問
- 上げる
- むしろ
- 現実
- 記録
- 反映する
- に対する
- レギュレータ
- レポート
- 必要とする
- 要件
- それらの
- 応答
- 責任
- 結果
- 収入
- リスク
- 丈夫
- 安全な
- 満足
- 言う
- 安全に
- セキュリティ
- 敏感な
- 感情
- サービス
- すべき
- 表示する
- から
- 状況
- サイズ
- EMSの
- 溶液
- ソリューション
- 一部
- 音
- ソース
- 特定の
- スピーチ
- スタック
- 手順
- まだ
- 強い
- 構造化された
- 構造化データと非構造化データ
- テーマ
- 成功
- 首尾よく
- そのような
- 周囲の
- Survey
- タンデム
- タスク
- チーム
- テク
- 技術的
- テクノロジー
- テクノロジー
- 傾向がある
- 条件
- 클라우드 기반 AI/ML및 고성능 컴퓨팅을 통한 디지털 트윈의 기초 – Edward Hsu, Rescale CPO 많은 엔지니어링 중심 기업에게 클라우드는 R&D디지털 전환의 첫 단계일 뿐입니다. 클라우드 자원을 활용해 엔지니어링 팀의 제약을 해결하는 단계를 넘어, 시뮬레이션 운영을 통합하고 최적화하며, 궁극적으로는 모델 기반의 협업과 의사 결정을 지원하여 신제품을 결정할 때 데이터 기반 엔지니어링을 적용하고자 합니다. Rescale은 이러한 혁신을 돕기 위해 컴퓨팅 추천 엔진, 통합 데이터 패브릭, 메타데이터 관리 등을 개발하고 있습니다. 이번 자리를 빌려 비즈니스 경쟁력 제고를 위한 디지털 트윈 및 디지털 스레드 전략 개발 방법에 대한 인사이트를 나누고자 합니다.
- より
- それ
- 情報
- ソース
- アプリ環境に合わせて
- それら
- そこ。
- ボーマン
- 彼ら
- この
- それらの
- 〜へ
- あまりに
- ツール
- 豊富なツール群
- トピック
- トピック
- 訓練された
- トレーニング
- インタビュー
- 透明性
- トランスペアレント
- true
- 信頼
- 信頼性
- 信頼できる
- 最終的に
- わかる
- 理解する
- 間違いなく
- 予期しない
- アンロック
- つかいます
- 中古
- ユーザー
- 操作方法
- users
- 検証済み
- さまざまな
- 、
- vp
- 仕方..
- 方法
- WELL
- いつ
- which
- while
- 意志
- 以内
- Word
- 悪化させる
- でしょう
- X
- 貴社
- あなたの
- ゼファーネット