AIボットは診断でほぼ80%の誤りを犯すことが、研究で明らかになった。

AIボットは診断でほぼ80%の誤りを犯すことが、研究で明らかになった。

5 hardware

研究結果の概要

最近発表された*Jama Network Open*に掲載され、*Financial Times*で引用された研究では、人気のチャットボットは限定的なデータしか与えられない場合、正確に医療診断を行うことができないことが示されました。80%以上のケースで誤った診断を出し、症状の完全な記述があれば精度が90%まで向上しました。

研究方法
ステップ 何をしたか ケース選択 29 の臨床シナリオを参考文献から抽出。データ転送 患者情報はチャットボットに段階的に渡されました:病歴 → 検査結果 → ラボ検査。AIへの質問 診断について尋ね、回答の正確性と網羅性を測定。

実験参加者
* OpenAI、Anthropic、Google、xAI、DeepSeek の 20 つの人気モデル。
* データが不完全な場合、80%以上で誤診断。
* 情報量が増えるにつれて精度は向上し、最高の場合 >90%、平均ではエラー率が40%未満。

開発者の反応
会社 コメント Google & Anthropic 医療アドバイスを求めるとチャットボットは専門家への相談を強く勧めます。OpenAI 利用規約でサービスは認可された医療アドバイスを提供するものではないと明記しています。xAI & DeepSeek コメントなし。

一部は専用モデルの開発に取り組んでいます:Google は AMIE を作成し、良好な結果を示しますが、その結論は依然として医師による確認が必要です。特に視覚的評価の重要性を考慮するとそうです。

結論
チャットボットは補助ツールとして有用ですが、情報が限定されていると頻繁に誤りを犯します。資格を持つ医療専門家の代替として使用することはまだ許容できません。ただし、従来の医療アクセスが不足している地域では役立つ可能性があります

コメント (0)

感想を共有してください。礼儀正しく、話題に沿ってお願いします。

まだコメントはありません。コメントを残して、あなたの意見を共有してください!

コメントを残すにはログインしてください。

コメントするにはログイン