人工知能(AI)のChatGPTを病院の救急外来(ED)で活用するのは時期尚早のようだ。EDでの診断にAIを活用すると、一部の患者に不必要な放射線検査や抗菌薬の処方を求め、実際には入院治療を必要としない患者にも入院を求めるような判断を下す可能性のあることが、新たな研究で明らかになった。米カリフォルニア大学サンフランシスコ校(UCSF)のChristopher Williams氏らによるこの研究は、「Nature Communications」に10月8日掲載された。Williams氏は、「本研究結果は、AIモデルの言うことを盲目的に信頼するべきではないという、臨床医に対する重要なメッセージだ」と話している。 この研究でWilliams氏らは、EDの臨床ノートを用いて、AIモデル(GPT-3.5 turboとGPT-4 turbo)が、入院、放射線検査、抗菌薬処方の必要性の3点についての推奨を的確に提供できるかどうかを評価した。25万1,000件以上のED受診から、それぞれのタスクにつき1万件の受診サンプルをランダムに抽出し、患者の症状や診察所見などの書かれた臨床ノートの内容をAIモデルに分析させた。モデルには、患者に入院が必要か、放射線検査が必要か、抗菌薬の処方が必要かについて、全て「はい」か「いいえ」で答えさせた。 その結果、AIモデルは全体的に、実際に必要とする以上の過剰なケアを推奨する傾向があることが明らかになった。レジデントの医師の診断精度に比べて、GPT-4 turboモデルの精度は8%、GPT-3.5 turboモデルの精度は24%低かった。 こうした結果を受けてWilliams氏は、「AIモデルは医学試験の質問に答えたり臨床記録の作成を手助けしたりすることはできるが、現時点では、EDのような複数の要素を考慮する必要がある状況に対処できるようには設計されていない」とUCSFのニュースリリースで述べている。 Williams氏は、「AIモデルのこのような過剰処方の傾向は、モデルがインターネット上でトレーニングされているという事実によって説明できるかもしれない」と話す。正規の医療アドバイスサイトは、緊急性の高い医学的質問に回答するためではなく、それに答えることのできる医師に患者を紹介するために設計されている。 またWilliams氏は、「これらのAIモデルは、たいていの場合、『医師の診察を受けてください』と答えるようになっている。これは、安全性の観点からはもっともなことだが、EDの現場では、用心し過ぎることが必ずしも適切であるわけではない。不必要な介入が患者にはかえって害となり、リソースの浪費と患者の医療費増加につながる可能性があるからだ」と述べている。 Williams氏は、AIモデルをEDで活用するには、患者の診察により得られる情報を評価するためのより優れたフレームワークが必要だとの見方を示す。そして、そのようなフレームワークの設計者は、AIモデルが重大な問題を見逃さないようにしつつ、不要な検査や費用が発生しないようにバランスを取る必要があると述べる。同氏は、「完璧な解決策はない。それでも、ChatGPTのようなモデルにはこのような傾向があることが明らかになったのだから、われわれには、AIモデルを臨床現場でどのように機能させたいかを熟考する責任がある」と話している。(HealthDay News 2024年10月8日) https://www.healthday.com/health-news/first-aid-and-emergencies/ai-may-not-be-ready-to-run-emergency-rooms Copyright © 2024 HealthDay. All rights reserved.Photo Credit: Adobe Stock
人工知能(AI)のChatGPTを病院の救急外来(ED)で活用するのは時期尚早のようだ。EDでの診断にAIを活用すると、一部の患者に不必要な放射線検査や抗菌薬の処方を求め、実際には入院治療を必要としない患者にも入院を求めるような判断を下す可能性のあることが、新たな研究で明らかになった。米カリフォルニア大学サンフランシスコ校(UCSF)のChristopher Williams氏らによるこの研究は、「Nature Communications」に10月8日掲載された。Williams氏は、「本研究結果は、AIモデルの言うことを盲目的に信頼するべきではないという、臨床医に対する重要なメッセージだ」と話している。 この研究でWilliams氏らは、EDの臨床ノートを用いて、AIモデル(GPT-3.5 turboとGPT-4 turbo)が、入院、放射線検査、抗菌薬処方の必要性の3点についての推奨を的確に提供できるかどうかを評価した。25万1,000件以上のED受診から、それぞれのタスクにつき1万件の受診サンプルをランダムに抽出し、患者の症状や診察所見などの書かれた臨床ノートの内容をAIモデルに分析させた。モデルには、患者に入院が必要か、放射線検査が必要か、抗菌薬の処方が必要かについて、全て「はい」か「いいえ」で答えさせた。 その結果、AIモデルは全体的に、実際に必要とする以上の過剰なケアを推奨する傾向があることが明らかになった。レジデントの医師の診断精度に比べて、GPT-4 turboモデルの精度は8%、GPT-3.5 turboモデルの精度は24%低かった。 こうした結果を受けてWilliams氏は、「AIモデルは医学試験の質問に答えたり臨床記録の作成を手助けしたりすることはできるが、現時点では、EDのような複数の要素を考慮する必要がある状況に対処できるようには設計されていない」とUCSFのニュースリリースで述べている。 Williams氏は、「AIモデルのこのような過剰処方の傾向は、モデルがインターネット上でトレーニングされているという事実によって説明できるかもしれない」と話す。正規の医療アドバイスサイトは、緊急性の高い医学的質問に回答するためではなく、それに答えることのできる医師に患者を紹介するために設計されている。 またWilliams氏は、「これらのAIモデルは、たいていの場合、『医師の診察を受けてください』と答えるようになっている。これは、安全性の観点からはもっともなことだが、EDの現場では、用心し過ぎることが必ずしも適切であるわけではない。不必要な介入が患者にはかえって害となり、リソースの浪費と患者の医療費増加につながる可能性があるからだ」と述べている。 Williams氏は、AIモデルをEDで活用するには、患者の診察により得られる情報を評価するためのより優れたフレームワークが必要だとの見方を示す。そして、そのようなフレームワークの設計者は、AIモデルが重大な問題を見逃さないようにしつつ、不要な検査や費用が発生しないようにバランスを取る必要があると述べる。同氏は、「完璧な解決策はない。それでも、ChatGPTのようなモデルにはこのような傾向があることが明らかになったのだから、われわれには、AIモデルを臨床現場でどのように機能させたいかを熟考する責任がある」と話している。(HealthDay News 2024年10月8日) https://www.healthday.com/health-news/first-aid-and-emergencies/ai-may-not-be-ready-to-run-emergency-rooms Copyright © 2024 HealthDay. All rights reserved.Photo Credit: Adobe Stock