医療は、人工知能(AI)の有望な利活用領域として期待されており、世界各国・地域が積極的な研究開発投資を行っている。クラウド環境を利用したAIアルゴリズムの開発や、臨床現場向け診断・治療支援ソリューションの提供・運用も拡大しつつあるが、バイアス、倫理、法務、セキュリティ、プライバシーといったリスク課題も抱えている。
米国政府が積極的に推進する医療AI
米国の医療分野では、2019年2月11日に制定された「人工知能(AI)分野における米国の優位性を維持し一層促進するための大統領令」に基づき、保健福祉省(HHS)が、2021年1月に「人工知能(AI)戦略」を発表し、チーフAIオフィサー室(OCAIO)を新設している。
同戦略では、AIについて、「日常的なタスクを自動化し、データに基づく洞察を引き出し、人間行動を拡張させることができるソリューションを提供するために、通常は人間のインテリジェンスを要求するようなタスクを遂行できるコンピュータシステムの理論および開発」と定義している。その上で、HHSは、アカデミアや産業界、政府機関のパートナーとともに、AIを活用して、米国の人々の健康・ウェルビーイングにおける進化を継続的に先導することによって、従来解決できなかった課題を解決し、保健福祉サービスのエコシステムにわたるAI利用に対応し、部門を越えた信頼できるAI採用をスケーリングすることを目標に掲げている。
AIを利用した医療機器の臨床開発については、米国食品医薬品局(FDA)の医療機器・放射線保健センター(CDRH)傘下に創設されたデジタルヘルス・センター・オブ・エクセレンス(DHCoE)が、2021年1月12日に「人工知能/機械学習(AI/ML)ベースのソフトウェア・アズ・ア・メディカルデバイス(SaMD)行動計画」を発表している。その中で、以下のような活動項目を掲げている。
- テーラーメイドのAI/MLベースSaMD向け規制フレームワーク
- グッド・マシンラーニング・プラクティス(GMLP)
- ユーザーに対する機器の透明性など、患者中心のアプローチの促進
- アルゴリズムのバイアスと堅牢性に関するレギュラトリーサイエンス手法
- リアルワールド・パフォーマンス(RWP)
サイバーセキュリティに関しては、「2.グッド・マシンラーニング・プラクティス(GMLP)」の取組の一環として、FDAの医療機器サイバーセキュリティプログラムと密接に連携しながら追求するとしている。
同年9月22日には、「人工知能/機械学習(AI/ML)が可能にした医療機器」を発表して、FDAの承認を受けたAI/ML利用医療機器の一覧表を掲示している。
クラウド環境上の医療AIにおけるベネフィットとリスク
このように、全米レベルで医療のAI利用が進む中、クラウドセキュリティアライアンスのヘルス・インフォメーション・マネジメント・ワーキンググループ(HIM-WG)は、2022年1月に「医療における人工知能」(https://cloudsecurityalliance.org/artifacts/artificial-intelligence-in-healthcare/)を公開している。この文書は、現在の医療におけるAI利用の基礎と懸念事項の全体像を、将来に向けたガイダンスや課題、予測とともに提供することを目的としている。そして、遠隔医療、診断管理、患者ケアなどの領域において、医療システムを通じて、AIや、機械学習、データマイニングを効果的に有効活用できる方法に関する事例やユースケース、治療手法を提供するとしている。また、倫理的課題や法的課題、AIにおけるバイアスを低減する方法にも取り組んでいる。
本文書は、以下のような構成になっている。
- イントロダクション
- ロボティクス
- ロボティック・プロセス・オートメーション (RPA)
- 診断・治療アプリケーション
- ビッグデータと予測分析
- AIと遠隔医療
- AIにおけるバイアス
- COVIT-19との闘いにおけるAI利用
- 倫理的・法律的課題
- AIとクラウドコンピューティング
- 結論
この中で、注目される領域に、手術支援ロボットのダ・ヴィンチに代表されるロボティクスがある。伝統的な開腹手術は、大規模な切開を通じてハンドヘルド機器で手術する外科医に依存してきたが、今日のロボットシステムなら、最低限の侵襲手術を実行することができる。ダ・ヴィンチ手術支援システムは、小規模な切開を利用した手術を可能にして、回復期間の短縮や患者アウトカムの改善をもたらすことができる。そのほか、Googleの共同創業者であるセルゲイ・ブリン氏がロボットを利用して人口組織上で縫合したり、ジョンソン・エンド・ジョンソンが肺がん領域の手術支援ロボット企業のオーリスや、ソフトウェア対応型手術支援技術企業のオーソタクシーを買収したりするなど、医療ロボット関連技術に対する注目が高まっている。
また、採血、患者のバイタルサインのチェック、患者の衛生状態のニーズに対するケアなど、医療スタッフが抱える大量の定型業務を、ロボットシステムにより自動化できる可能性がある。技術が進化するにつれて、ロボットは、より多くの業務を独立して実行するようになる。将来的には、ロボットが管理業務や定型業務を行う一方、医療専門職は、病気や脆弱な人々向けのケア提供に集中することが可能になるとしている。
なおCSAでは、IoT WGが、2021年11月8日に「医療機器インシデント対応プレイブック」(https://cloudsecurityalliance.org/artifacts/csa-medical-device-incident-response-playbook/)を発行しており、現在、「MITRE ATT&CKフレームワーク」(https://attack.mitre.org/)や「医療機器脅威モデリングプレイブック」(https://www.mitre.org/publications/technical-papers/playbook-threat-modeling-medical-devices)を開発したMITREコーポレーションと連携して、クラウド環境における遠隔医療や医療ロボットなどの脅威モデリングに関するユースケース開発を進めている。
臨床現場に広がるAI利用の市場機会
次に、診断・治療アプリケーションの領域では、AIやML、データマイニングの急速な発展により、イノベーターがインテリジェントシステムを構築して、診断プロセスを最適化し、改善することが可能になったとしている。MLやデータマイニングのアルゴリズムによって、複雑で大容量のデータセットから予期しないパターンを迅速に捕捉することもできる。診断領域におけるAI利用のメリットとして、コスト削減、早期診断、潜在的な人命の保護などを挙げた上で、以下のようなユースケースを挙げている。
- がん領域において、MLは、がん専門医が早期ステージで病気を検知するのに役立つ
- 皮膚科において、AIは、臨床意思決定を改善し、皮膚病診断の正確性を保証するために利用される
- MLやAI技術は予防遺伝学の鍵であり、ヒトゲノムの転写において一気に進歩するのに役立つ
- 精神疾患領域において、AIは、メンタルヘルス研究や、MLを介した医学診断に影響をおよぼすことができる
- 神経科学や神経科は、分析スキャンから人間の脳に関する知見の提供や行動パターンの検知に至るまで、研究データの収集、処理、翻訳におけるAI導入からの恩恵を受ける
- 技術的アルゴリズムは、脳卒中の予測や回復のモニタリングを支援したり、安静時と脳卒中関連の麻痺を区別するのに役立てたり、90日以上の虚血性脳卒中患者の回復カーブを予測したり、早期発見の脳卒中患者を入院後48時間モニタリングしたりするのに役立つ
- AIは、変性状態に関する研究を支援して、複雑な障害を特定し、最適な介入を支援するのに有益である
- AIは、眼科的な状態の診断を支援する
- Ⅰ型糖尿病とⅡ型糖尿病には広範な状態があり、研究者は大量の使えるデータを有している反面、これらの知見を集約して単独のフレームワークに組み込む必要があるので、MLは糖尿病の診断や治療を支援する
- AIは、ICUの医師が、いつ患者から抜管するかなどの判断をするのに役立つ
- AIは、様々な自動化システムやツールを利用した希少疾患における早期診断を支援する
このように、診断・治療領域のAIは、医療専門職がMLを利用して、医療診断のスケールを拡張させたり、個々のケースの分析からコミュニティのモニタリングや病気の拡大の予測にシフトしたりすることを可能にするものであり、臨床現場のデジタルトランスフォーメーション(DX)の観点からも期待が大きい。
医療AIにおけるリスク課題としてのバイアス
このようにAIのベネフィットは明らかであるが、現実的にはゼロリスクのAIは存在しない。AIのリスク課題として指摘されるテーマの1つにバイアスがある。医療システムにおけるバイアスは、有害な患者アウトカムにつながる可能性があるので、AIシステム全体の中で、リスクを特定し、低減策を講じながら、運用管理していく必要がある。
本文書では、バイアスの原因として、以下の2点を挙げている。
- 認知バイアス:集団のメンバーシップに基づく個人または集団に対する感情。認知バイアスは、判断に影響を及ぼす人々の経験や感情の傾向を説明する用語である。AIの意思決定に関してみると、顕著な認知バイアスは利用可能性ヒューリスティックであり、人間は自分の現在の信念を支持するような情報に頼る傾向があるというものである。認知バイアスは、以下のいずれかによって、MLアルゴリズムに組み込むことができる。
- 無意識のうちにアルゴリズムに導入する設計者
- バイアスを含む学習データの利用
- 完全なデータの欠如:データが不完全な場合、代表性がなく、バイアスを含む可能性がある。 そして、AIアルゴリズムから不必要なバイアスを取り除くために、以下のようなステップを推奨している。
- 評価対象となるアルゴリズムやデータを理解する。設計チームに多様性を導入することによって、意思決定プロセスにおける文化的な機微性の役割を支援できる。
- すべてのデータについて、バイアスを検証する。不必要なバイアスを評価し、低減する手法がある。
- バイアスを特定するとともに、プロセス改善を可能にする方法を探し求める。トレーニングや設計、文化的変化を通じて、プロセスを改善し、バイアスを低減することができる。
- 多様性のあるAIチームを維持することによって、不必要なバイアスの低減に役立てることができる。アルゴリズムのライフサイクル全体を通して、AIコミュニティにおける多様性を改善することは重要であり、バイアスの特定を可能にする
データ駆動型技術に基づくモデリングや予測手法の増殖により、リアルワールドのシステムに織り込まれた様々な社会的バイアスが顕在化しており、世間一般でも、AIの社会的リスクに対する懸念が広がっている。問題形成プロセスの初期段階で、バイアスを特定して処理することが、プロセス改善のための重要なステップになるとしている。
なお後編では、AIのリスク課題のうち、倫理的・法律的側面やクラウド環境特有のセキュリティ・プライバシー課題を取り上げる。
(参考文献)
・U.S. Department of Health and Human Services (HHS)「Artificial Intelligence (AI) Strategy」(2021年1月24日)
https://www.hhs.gov/sites/default/files/final-hhs-ai-strategy.pdf
・U.S. Food and Drug Administration(FDA)「FDA Releases Artificial Intelligence/Machine Learning Action Plan」(2021年1月12日)
CSAジャパン関西支部メンバー
健康医療情報管理ユーザーワーキンググループリーダー
笹原英司