公開日•更新されました
この記事をシェアする
研究者らはまた、X線写真で特定の領域を正確に示した場合、医師はAIの説明を信頼する可能性が高いことも発見した。
その間人工知能 (AI)新しい研究によると、X線写真は医療における革命的なツールですが、放射線科医はX線の特定の部分を強調表示する際にそのアドバイスに過度に依存する可能性があります。
米国の研究者チームは、国内の複数の施設から220人の医師を採用し、AIが生成したアドバイスとともに胸部X線写真を検査する任務を負わせた。
参加者には、AI アシスタントの助けを借りて X 線を読み取る任務を負った放射線科医や内科または救急科の医師が含まれていました。医師は AI の提案を受け入れるか、変更するか、拒否することができます。
雑誌に掲載された研究放射線科では、ローカルまたはグローバルの AI アドバイスの種類とその精度が診断にどのような影響を与えるかを調査しました。
ローカルな説明は、AI が X 線写真で特定の関心領域をハイライト表示する場合であり、グローバルな説明は、AI が過去の同様の症例の画像を提供して提案をどのように行ったかを示す場合です。
研究の共著者の一人でセント・ジュード小児研究病院のインテリジェント画像情報学部長であるポール・H・イー博士は「AIのアドバイスが正しかった場合、現地で説明することで診断精度が向上し、解釈時間が短縮されることがわかった」とユーロニュース・ヘルスに語った。
AI が正確なアドバイスを提供した場合、ローカルな説明ではレビュー担当者の診断精度が 92.8 パーセントに達し、グローバルな説明では 85.3 パーセントの精度が得られました。
しかし、AIの診断が不正確だった場合、診断精度は局所的な説明では23.6%、医師による全体的な説明では26.1%に低下した。
「これらの調査結果は、AI ツールを慎重に設計することの重要性を強調しています。思慮深い説明設計は単なるアドオンではなく、意図しないリスクを導入するのではなく、AI が臨床実践を確実に強化する上で極めて重要な要素です」と Yi 氏は述べています。
予想外の発見は、たとえAIが間違っていたとしても、放射線科医と放射線科医でない医師の両方が、いかに迅速に現地の説明を信頼したかということでした。
「これは、微妙だが重要な洞察を明らかにしている。AIの説明の種類によって、ユーザーが気付かない形で信頼と意思決定が形成される可能性がある」と同氏は付け加えた。
彼は、自動化に過度に依存する人間の傾向である「自動化バイアス」のリスクを軽減するためのいくつかの提案をしています。
同氏は、医師は何年にもわたる訓練と反復を通じて、パターンやチェックリストに従うことを学ぶと述べた。
「ルーチンを作るという考え方です。予期せぬミスの原因となる変動を最小限に抑えることができます。」と彼は言いました。
ただし、AI ツールを導入すると新たな要素が追加され、このルーチンが狂ってしまう可能性があります。
「私たちはチェックリストに固執し、それを確実に順守する必要があります。しかし、AIを組み込むためにチェックリストが実際に変更される未来を私は想像しています」とイー氏は述べ、人間とコンピューターの相互作用についても、次のような要素を考慮して研究する必要があると付け加えた。ストレスや疲労として。