株式会社日本医事新報社 株式会社日本医事新報社

CLOSE

【識者の眼】「説明可能なAIの必要性が高くなる」土屋淳郎

No.5118 (2022年05月28日発行) P.58

土屋淳郎 (医療法人社団創成会土屋医院院長、全国医療介護連携ネットワーク研究会会長)

登録日: 2022-04-25

最終更新日: 2022-04-25

  • このエントリーをはてなブックマークに追加

先日、施設内でコロナ感染した患者を、認知症増悪リスクを受容して個室隔離にするか、同フロアの他入所者の感染リスクを受容してフロアの一部を移動可とするかで検討したケースがあり、この時に「トロッコ問題」を思い出した。これは、制御不能となったトロッコが走る先の線路上に5名の作業員がおり、このままでは死んでしまうが、あなたが目の前にある分岐レバーを動かせばトロッコは分岐線に引き込まれ5人は助かるものの分岐線上にいる別の作業員1名が死んでしまうときに、あなたならどうするか、というものだ。最近、AIによる自動運転においてこの「トロッコ問題」が議論されていると聞くが、医療におけるAI利用に関してはどうなのだろうか。

第3次AIブームの火付け役となったディープラーニング(深層学習)は、機械学習のひとつで、人の神経細胞(ニューロン)の構造に似たニューラルネットワークを多層化し、データの関連性の重みづけをすることで、精度の高い結果を出すものである。囲碁や将棋では人間離れした手を指す強さが印象的で、その威力を発揮していると言えるだろう。しかし、多層化した膨大なデータがどのような関連性で重みづけをされているかは人間が理解できないという「ブラックボックス問題」が生じていると言われている。AIがなぜその結果に至ったのかという判断のプロセスや基準がわからないと、何らかの誤りが生じたときに、なぜそれが起こったのかを検証することができない。これが特に問題になるのは、人命に関わる自動運転や医療の分野であると言われている。

もちろん、医療におけるAIのすべてでブラックボックスがダメというわけではない。たとえば、画像診断で膨大な画像データを処理して、スクリーニングとして病変部を指摘する利用方法においては、そのスピードや正確性からも非常に有用性が高く、その指摘部位を専門医が確認して確定診断に進めていくという方法は、これからの主流になっていく可能性も高い。しかし、倫理的な側面を有する場合や、人命や予後に大きく影響する判断が要求される場合には判断プロセスや基準が明確であることが求められ、それらに対し様々な大学や企業などでも研究されている「説明可能なAI」の必要性が高くなるのではないかと考えている。

今後は、さらに発展するであろう「説明可能なAI」を含め、医療におけるAI利用は適切な使い分けと距離感が大切になっていくのではないだろうか。

土屋淳郎(医療法人社団創成会土屋医院院長、全国医療介護連携ネットワーク研究会会長)[トロッコ問題]

ご意見・ご感想はこちらより

関連記事・論文

もっと見る

関連物件情報

もっと見る

page top