ChatGPTは米国消化器病学会の試験に合格できず、患者に正確な医療情報を生成する能力がないと医師らは警告している。
ファインスタイン医学研究所の医師らが主導した研究では、OpenAI の古い GPT-3.5 モデルと最新の GPT-4 システムを利用した ChatGPT の両方の亜種がテストされました。学術チームは、2021年と2022年の米国消化器病学会(ACG)自己評価テストから取得した多肢選択式の質問をコピーしてボットに貼り付け、ソフトウェアの応答を分析した。
興味深いことに、GPT-3.5 に基づくそれほど高度ではないバージョンは 65.1 の質問のうち 455 パーセントに正解しましたが、より強力な GPT-4 は 62.4 パーセントのスコアを獲得しました。 OpenAI はモデルのトレーニング方法について秘密にしているため、どのようにしてそれが起こったのかを説明するのは困難です。 同社の広報担当者は、少なくとも両方のモデルは2021年XNUMX月時点のデータに基づいてトレーニングされたと語った。
いずれにせよ、どちらの結果も試験に合格するための 70% の基準に達するには十分ではありませんでした。
ファインスタイン医学研究所の准教授であり、この研究の上級著者であるアルビンド・トリンダード氏 公表 セクションに アメリカ消化器病学会、言いました 登録.
「スコアは合格または 70 パーセントの取得にそれほど遠くありませんが、医学的アドバイスや医学教育のためには、スコアは 95 以上であるべきだと私は主張します。」
「患者は、自分の医療分野の70パーセントしか知らない医師に安心するとは思わない。医師にこれほどの高い基準を求めるなら、医療チャットボットにも同じ高い基準を要求すべきだ」と同氏は付け加えた。
アメリカ消化器病学会は医師を養成しており、その試験は公式試験の練習として使用されます。 医師が認定された消化器内科医になるには、米国内科学会の消化器科試験に合格する必要があります。 それには直感だけではなく、知識と勉強が必要です。
ChatGPT は、与えられた文内の次の単語を予測することによって応答を生成します。 AI はトレーニング データ内の一般的なパターンを学習して、次にどの単語を入力すべきかを判断し、情報を思い出すのに部分的に効果的です。このテクノロジーは急速に進歩していますが、完璧ではなく、特にトレーニング データに存在しない可能性のあるニッチな主題についてクイズが出されている場合には、虚偽の事実を幻聴する傾向があります。
「ChatGPT の基本的な機能は、テキスト文字列内の次の単語を予測し、そのような応答が事実として正しいかどうかに関係なく、利用可能な情報に基づいて期待される応答を生成することです。ChatGPT には、トピックや問題についての本質的な理解はありません。 」と同紙は説明している。
Trindade 氏は、ソフトウェアのトレーニングに使用される Web ページ上の消化器病学関連の情報が正確ではない可能性があるため、医学雑誌やデータベースなどの最良のリソースを使用する必要があると述べました。
ただし、これらのリソースはすぐに利用できるものではなく、ペイウォールの背後に閉じ込められる可能性があります。 その場合、ChatGPT には専門知識が十分に伝わっていない可能性があります。
「結果はChatGPTにのみ適用されます。他のチャットボットは検証する必要があります。問題の核心は、これらのチャットボットがどこから情報を取得しているかです。現在の形式では、ChatGPTは医療アドバイスや医学教育に使用されるべきではありません」とTrindade氏は結論づけた。 ®
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- プラトアイストリーム。 Web3 データ インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- 未来を鋳造する w エイドリエン・アシュリー。 こちらからアクセスしてください。
- PREIPO® を使用して PRE-IPO 企業の株式を売買します。 こちらからアクセスしてください。
- 情報源: https://go.theregister.com/feed/www.theregister.com/2023/05/24/chatgpt_gastroenterology_exams/
- :持っている
- :は
- :not
- :どこ
- $UP
- 1
- 2021
- 2022
- 70
- a
- 私たちについて
- アカデミック
- 正確な
- 追加されました
- 高度な
- アドバイス
- AI
- しかし
- アメリカ
- an
- &
- どれか
- 適用可能な
- です
- 主張する
- AS
- 仲間
- At
- 著者
- 利用できます
- 離れて
- ベース
- 基本
- BE
- になる
- き
- 背後に
- さ
- BEST
- ボード
- ロボット
- 両言語で
- by
- 缶
- できる
- 場合
- チャットボット
- AI言語モデルを活用してコードのデバッグからデータの異常検出まで、
- 選択
- CO
- カレッジ
- 快適
- コマンドと
- 終了する
- 正しい
- できなかった
- 電流プローブ
- データ
- データベースを追加しました
- 付け
- 需要
- 医師
- 医師
- ありません
- ドン
- 教育
- 効果的な
- 十分な
- 特に
- エーテル(ETH)
- 予想される
- エキスパート
- 説明する
- 説明
- 露出した
- 事実
- Failed:
- false
- 遠く
- フィールド
- フィギュア
- フォーム
- から
- function
- 生成
- 生成
- 与えられた
- Go
- 良い
- が起こった
- ハード
- 持ってる
- he
- 彼女の
- ハイ
- 彼の
- 認定条件
- しかしながら
- HTTPS
- i
- if
- 改善されました
- in
- 情報
- 内部
- に
- 本質的な
- 問題
- IT
- ITS
- ジャーナル
- JPG
- ただ
- 知識
- 最新の
- 最低
- ツェッペリン
- less
- ような
- ロック
- 五月..
- 医療の
- 医学研究
- 薬
- モデル
- 他には?
- の試合に
- 必要
- どちらでもありません
- 次の
- 入手
- of
- 公式
- 頻繁に
- on
- の
- OpenAI
- or
- その他
- 私たちの
- でる
- が
- 紙素材
- パス
- 通過
- 患者
- 患者
- パターン
- パーセント
- 完璧
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- 可能
- パワード
- 強力な
- 練習
- 予測する
- 予測
- 現在
- 作り出す
- 東京大学大学院海洋学研究室教授
- 質問
- 急速に
- リーチ
- 最近
- 関係なく
- 研究
- リソース
- 応答
- 回答
- 結果
- 結果
- s
- スコア
- シニア
- 文
- 9月
- すべき
- ソフトウェア
- 標準
- 文字列
- 勉強
- そのような
- 撮影
- 取り
- チーム
- テクノロジー
- テスト
- それ
- 情報
- ボーマン
- 考える
- この
- しきい値
- 〜へ
- トピック
- トレーニング
- 訓練された
- トレーニング
- 列車
- 理解する
- us
- 中古
- 検証済み
- バージョン
- ました
- 仕方..
- we
- した
- この試験は
- かどうか
- while
- Word
- でしょう
- ゼファーネット