2分で読める「生成AIのいま」 Vol.6 —AIとヒトの"Forced Collaboration" とりあえずAIを使えばいいってもんでもない?!—

医療現場でAIの活用が進む中、人間とAIがいっしょに作業すると逆に精度が下がる例が報告されています。これは、「Forced Collaboration(強制的協働)」と呼ばれ、医療に限らず、金融や法務、教育、運転支援など様々な分野で確認され、意外な注目を集めています。

いつものように医療田さんと機械屋さんに、この問題について話し合ってもらいましょう(ちなみに最近、ChatGPTの画像生成がアップデートされましたので、画風を私の好きなスタジオ風にしてもらいました)。


医療田恵美さん

「ねえヒロトさん、最近ニュースで“AIと医師が組んだら精度が下がることがある”って見たんだけど、本当なの?」

機械屋ヒロトさん

「ええ、実はそれがForced Collaborationと呼ばれる現象なんですよ。

AIと人間が常に一緒に意思決定するように強制されると、本来のパフォーマンスが発揮できなくなるケースがあるんです。」

1. 「Forced Collaboration」の定義と背景

医療田さん

「なんでそんな逆効果が起きちゃうわけ?」

機械屋さん

「人間とAIがそれぞれの得意分野を活かせる形で協力すればいいんですが、と無理に組み合わせると、両方の強みを台無しにする可能性があるんです。

AIを導入する現場で、思ったより成果が出なかったり逆に精度が落ちたりする理由の一つですね。」

2. 医療分野の具体例

医療田恵美

「うちの病院でも画像診断のAIを導入する計画があるんだけど、まさにそのリスクがあるの?」

機械屋巨人

「はい。たとえば胸部X線の読影テストで、AI単独の正確度が92%、医師単独が74%なのに、協働だと76%止まりだったという報告があります。

普通は一緒にやればもっと良くなるはず、と思うでしょう?

でも医師がAIを十分信用しなかったり、AIが与える情報が医師の判断を混乱させたりすると、結局精度が伸びないんです。

ちなみにですけど、こういった事例は、医療以外にも指摘されているんですよ」

3. 他分野での類似事例

医療田恵美

「えー、それ医療だけかと思ったら、ほかの分野でもあるの?」

機械屋巨人(ヒロト)

「そうですね。金融のアルゴリズム取引や法務の判決支援、運転支援システムなどでも報告されています。

AIのほうが得意なところに人間が口を出しすぎると足を引っぱるし、人間が得意なところではAIが微妙な判断を邪魔する。そんな形で結果が悪化するわけです。」

4. なぜ協働が逆効果になるのか

医療田恵美

「でも、どうして一緒にやると混乱するの? そりゃ何もかもAIに任せるのはどうかと思うけど。。」

機械屋巨人(ヒロト)

「主な理由は、

・心理的な問題(AIを信頼しすぎるか、全然信用しないか)

・認知的な問題(情報が増えて頭が混乱する)

・技術的な問題(AIの不得意分野への無理な適用や使い勝手の悪さ)

・制度的な問題(責任の所在やルールの曖昧さ)

などですね。

これらが重なると、“AIがいるせいで逆に疲れる・迷う”という状態に陥るわけです。」

医療田恵美

「そっか…なんとなくAIって導入すれば勝手に便利になるもんだと思ってた。」

機械屋巨人(ヒロト)

「実は設計や運用方法がすごく大事なんです。AIの得意・不得意を見極めて、人間とAIの役割分担を明確にすることがポイントですね。

そこさえうまくいけば、医療現場でも大きく業務をサポートしてくれるはずですよ。」

(つづく)

Previous
Previous

2分で読める「生成AIのいま」 Vol.7 —”Forced Collaboration”を乗り越える、生成AI活用戦略 医療画像編—

Next
Next

2分で読める「生成AIのいま」 Vol.5 —海外の画像診断AI導入の近況 RCR AIカンファレンスより—